在Cver上看到一篇推文,总结了多篇类似anchor-free论文: : Unifying Landmark Localization with End to End Object Detection Only Look Once: Unified, Real-Time Object Detection : Detecting Objects as Paired Keypoints Object Detection by Grouping Extreme and Center Points Selective Anchor-Free Module for Single-Shot Object Detection : Fully Convolutional One-Stage Object Detection Anchor-Free Region Proposal Network for Faster R-CNN based Text Detection Approaches : Beyond Anchor-based Object Detector DenseBox, 这是一篇百度2016年挂出来的论文,距离现在比较早的文章了,现在又被拿出来重提了,因为其中anchor-free的特点,我把它找出来了。发现这是一篇百度的神作,有很多极其超前的思路。出现了特征融合,多任务训练,多尺度,通过添加任务分支进行关键点检测(直到2017年mask-rcnn才公布通过添加掩码在Faster-rcnn进行上进行分割任务)。 对于分类{0,1},这个模型使用L2损失,并没使用hinge loss or cross-entropy loss,按照作者说法这个简单的L2损失也能工作的很好。 坐标也是l2损失 网络添加Conv5_2_landmark和Conv6_3_det输出,对于检测N个关键点的任务,Conv5_2_landmark有N个热图,热图中的每个像素点表示改点为对应位置关键点的置信度。对于标签集中的第i个关键点(x,y) ,在第i个feature map在(x,y) 处的值是1,其它位置为就是关键点的分数热力图。 参考: 目标检测:Anchor-Free时代 那些酷炫的深度学习网络图怎么画出来的? CVPR2019-Code 人脸检测之DenseBox