目标检测 |
您所在的位置:网站首页 › ssd目标检测网络参数 › 目标检测 |
SSD网络包含了基础网络,辅助卷积层和预测卷积层: 基础网络:提取低尺度的特征映射图 辅助卷积层:提取高尺度的特征映射图 预测卷积层:输出特征映射图的位置信息和分类信息下面介绍SSD网络的这三个部分 基础网络 基础网络的结构采用了VCG-16网络架构,VCG-16网络如下图: VCG-16网络包含了卷积层和全连接层(FC Layers),全连接层的任务用来分类,由于基础网络只需要提取特征映射图,因此需要对全连接层用卷积层代替,这一部分的参数和VCG-16网络的卷积层参数用迁移学习的方法获取。 基于VCG网络架构的基础网络如下图: 辅助卷积层 辅助卷积层连接基础网络最后的特征映射图,通过卷积神经网络输出4个高尺度的特征映射图: 预测卷积层 预测卷积层预测特征映射图每个点的矩形框信息和所属类信息,如下图: 3.SSD网络中几个重要概念的详细解释 如何表示矩形框 我们用矩形框定位物体的位置信息和所属类,如下图: 常用四个维度表示矩形框信息,前两个维度表示矩形框的中心点的位置,后两个维度表示矩形的宽度和高度。为了统一,我们使用归一化的方法表示矩形框: 上图猫的矩形框为:(0.78,0.80,0.24,0.30) 如何衡量两个矩形框的重叠度 SSD算法中有两处需要计算矩形框的重叠度,第一处是计算先验矩形框和真实矩形框的重叠度,目的是根据重叠度确定先验框所属的类,包括背景类;第二处是计算预测矩形框和真实矩形框的重叠度,目的是根据重叠度筛选最优的矩形框。 我们用Jaccard Index或交并比(IoU)衡量矩形框的重叠度。 交并比等于两个矩形框交集的面积与矩形框并集的面积之比,如下图: 损失函数算法 预测层预测了映射图每个点的矩形框信息和分类信息,该点的损失值等于矩形框位置的损失与分类的损失之和。 首先我们计算映射图每个点的先验框与真实框的交并比, 若交并比大于设置的阈值,则该先验框与真实框所标记的类相同,称为正类;若小于设置的阈值,则认为该先验框标记的类是背景,称为负类。 然后预测层输出了映射图每个点的预测框, 预测框的标记与先验框的标记相同。 预测框与真实框的损失函数等于预测框位置的损失与分类的损失之和。 1. 预测框位置的损失: 由于不需要用矩形框定位背景类,所以只计算预测正类矩形框与真实矩形框的位置损失: 我们用 nn.L1Loss函数计算矩形框位置的损失。 n1.L1Loss函数: torch .nn .L1Loss(size_average =None, reduce=None, reduction ='mean') 公式: 其中N表示样本个数。 如果reduction不为'none'(默认设为'mean'),则 假设共有N个正类的预测矩形框,每个矩形框的位置为 其中 i = 1,2,...,N 每个预测矩形框对应的正类真实矩形框的位置为: 如下图的预测矩形框和对应的正类真实矩形框: 损失函数为: 2.预测类的损失: 由第一节的损失函数介绍可知,大部分的预测矩形框包含了负类(背景类),容易知道一张图中负类的个数远远多于正类,若我们计算所有类的损失值,那么训练出来的模型会偏向于预测负类的结果。 因此我们选择一定数量的负类个数和全部的正类个数来训练模型,负类个数N_hn,正类个数N_p,负类个数与正类个数满足下式: 我们知道了负类个数,如何从数量庞大的负类中选择所需要的负类个数?本文采用了最难检测到负类的预测框作为训练的负类,称为Hard Negative Mining。 现在我们知道了如何选择负类,那么如何预测分类损失函数?关于多分类任务,我们常用交叉熵来评价分类损失函数。 若预测的类个数为K(包含了背景类),交叉熵公式如下: 其中为真实类属于第 i 类概率,若属于第 i 类则 ;若不满足则。为预测类属于第i类的概率,每个先验框的预测类是一个1行K列的矩阵。 若交叉熵损失函数为CE Loss,预测类的损失为,有: 其中N_P和 N_hn分别为正类、负类个数。 总损失函数为预测类损失和预测位置损失之和,记为L,有: α常设置为1 ,或者也可作为待学习的参,SSD论文中设置α等于1 。 4.SSD网络结构如何定位目标 前面介绍通过先验框和真实框的交并比来分类,若交并比大于阈值则为正类(包含某个特定物体的类),若交并比小于阈值则为负类(背景类)。 预测框与先验框的个数相等,若有多个相同正类的预测框的交并比很大(如下图),如何选择最优的预测框? 上图的五个预测框预测了三只狗和两只猫,三只狗的交并比如下表: 设置阈值为0.5 ,因为预测dog B的分数最大(0.96),且dog B和dog C的交并比大于阈值,因此一致dog C的预测框。由于dog A与其他预测框的交并比小于阈值,因此保留dog A的预测框。即狗的输出结果为两个。 猫的预测矩形框如下表: 同理,由于cat A 的预测分数最高,且cat B与cat A交并比大于阈值,因此抑制cat B预测框。 上述方法称为非极大值抑制(Non-Maximum Suppression)。 根据非极大值抑制方法,猫狗的预测框如下图: 5.SSD网络的算法流程 介绍了SSD网络结构以及理解该网络所需要的基础概念,基于这些知识,下面介绍SSD网络的算法流程。 训练阶段: 预测阶段 6.小结 本文介绍了SSD算法框架及原理,由于算法细节较多以及篇幅的关系,小编选择了几个非常重要且设计很巧妙的细节进行介绍,更详细内容的链接 https://github.com/sgrvinod/a-PyTorch-Tutorial-to-Object-Detection,对于英文不好的同学,可参考该文帮助理解,若有不懂欢迎交流 返回搜狐,查看更多 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |