一阶段,没有anchor,没有proposal,内存占用少的目标检测算法。

https://arxiv.org/pdf/1904.01355.pdf <https://arxiv.org/pdf/1904.01355.pdf>


<>1 概述

本文创新点:

* 使用语义分割的思想来解决目标检测问题;
* 摒弃了目标检测中常见的anchor boxes和object proposal,使得不需要调优涉及anchor boxes和object
proposal的超参数(hyper-parameters);
* 训练过程中避免大量计算GT boxes和anchor boxes 之间的IoU,使得训练过程占用内存更低;
* 提出的可以FCOS代替二阶段检测中的RPN,且性能更优;
<>2 FCOS框架解析

本文主要网络架构:
[Backbone] + [FPN] + [Classification+Regression+Center-ness]


<>2-1 提出的FCOS(Fully Convolutional One-Stage Object Detector)

对于feature map FiF_{i}Fi​中点(x,y),映射回原图片中位置为(⌊s/2⌋+x∗s,⌊s/2⌋+y∗s)(\left \lfloor
s/2 \right \rfloor+x*s, \left \lfloor s/2 \right \rfloor+y*s)(⌊s/2⌋+x∗s,⌊s/2⌋+y∗
s),基于anchor的检测方法将点(⌊s/2⌋+x∗s,⌊s/2⌋+y∗s)(\left \lfloor s/2 \right \rfloor+x*s,
\left \lfloor s/2 \right \rfloor+y*s)(⌊s/2⌋+x∗s,⌊s/2⌋+y∗s)作为中心,回归bounding
box;FCOS将点作为训练样本回归bounding box。
FCOS回归一个4-D向量t∗=(l∗;t∗;r∗;b∗)t^{*} = (l^{*} ; t^{*} ; r^{*} ; b^{*} )t∗=(l∗;t∗
;r∗;b∗),其中l∗l^{*}l∗、t∗t^{*}t∗、r∗r^{*}r∗和b∗b^{*}b∗分别是点到bounding box上下左右的距离,回归函数为

与基于anchor的检测方法只将和GT重叠最大的anchor boxes作为正样本相比,FCOS能利用的正样本明显更多。最终的损失函数为:


<>2-2 多尺度预测(Multi-level Prediction with FPN)

使用基于FPN的多尺度预测提高召回率和缓解重叠bounding boxes带来的二义性。使用来自5层步长分别为8, 16, 32, 64 和
128的feature mapP3,P4,P5,P6,P7{P3, P4,P5,P6,P7}P3,P4,P5,P6,P7
,其中P6,P7分别是P5,P6的下采样。

不同于基于anchor的检测方法在不同层回归不同尺度的anchor boxes,FCOS指定每层回归的目标尺寸m2, m3, m4, m5, m6, m7
分别为 0, 64,128, 256, 512,∞\infty∞,不满足每层目标回归尺寸的目标不会被回归,因此可以有效地减轻重叠目标带来的二义性(
作者假设重叠目标大小差异较大)。

<>2-3 Center-ness


“center-ness”抑制低质量检测框的产生,快速过滤负样本,降低NMS负担,提高召回率和检测性能。center-ness用来度量当前位置和物体中心间的距离,即FCOS将点的坐标在目标中位置因素也加入考虑,越靠近中间权重越大。


在训练的过程中我们会约束中center-ness的值,使得其接近于0,使得分布在目标位置边缘的低质量框能够尽可能的靠近中心。在最终使用该网络的过程中,非极大值抑制(NMS)就可以轻松滤除这些低质量的边界框,提高检测性能。

<>3 实验结果


友情链接
KaDraw流程图
API参考文档
OK工具箱
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:[email protected]
QQ群:637538335
关注微信