【论文解读】CVPR 2020:物体检测论文精选
作者:Derrick Mwiti 编译:ronghuaiyang
导读
最近的CVPR 2020在推动物体检测前进方面有相当多的贡献。在这篇文章中,我们将看到几篇特别令人印象深刻的论文。
A Hierarchical Graph Network for 3D Object Detection on Point Clouds
这篇文章提出了一种基于图卷积(GConv)的层次图网络(HGNet)用于三维目标检测。它直接处理原始点云来预测3D边界框。HGNet能够捕获点之间的关系,并使用多级语义进行物体检测。
论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Chen_A_Hierarchical_Graph_Network_for_3D_Object_Detection_on_Point_CVPR_2020_paper.html
HGNet由三个主要部分组成:
基于GConv的U形网络(GU-net)
Proposal生成器
Proposal推理模块(ProRe模块) — 使用全连通图对proposals进行推理
作者提出了一种形状注意力的GConv (SA-GConv)来捕获局部形状特征。通过建模相对的几何位置来描述物体的形状。
基于SA-GConv的U形网络捕获了多层特征。然后,投票模块将它们映射到一个相同的特征空间,并用于生成proposals。在下一步中,基于GConv的proposals 推理模块使用proposals 来预测边框。
下面是在SUN RGB-D V1数据集上获得的一些性能结果。
HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection
在本文中,作者提出了Hybrid Voxel网络(HVNet),一种用于自动驾驶的基于点云的三维物体检测的一阶段的网络。
论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Ye_HVNet_Hybrid_Voxel_Network_for_LiDAR_Based_3D_Object_Detection_CVPR_2020_paper.html
本文使用的voxel特征编码(VFE)方法包括三个步骤:
Voxelization —— 分配一个点云到一个2D voxel 网格
Voxel 特征提取 —— 计算一个网格依赖的point-wise特征,它被送给一个PointNet风格的特征编码器
投影 —— 将point-wise特征聚合到voxel-level的特征并将其投影到原始网格中。这就形成了一个伪图像特征图。
voxel的大小在VFE方法中是非常重要的。更小的voxel 尺寸捕获更精细的几何特征。它们也更擅长于物体的定位,但需要更长的推理时间。使用更粗的voxel 可以获得更快的推理速度,因为它会导致更小的特征图。然而,它的性能较差。
作者提出使用混合voxel网络(HVNet)来利用细粒度的voxel 特征。它由三个步骤组成:
多尺度体Voxelization — 创建一组特征voxel 尺度,并将其分配给多个voxel 。
混合voxel 特征提取 — 计算每个尺度的voxel依赖特征,并将其送入注意力特征编码器(AVFE)。每个voxel尺度的特征进行point-wise连接。
动态特征投影 — 通过创建一组多尺度物体voxels将特征投影回伪图像。
以下是在KITTI数据集上获得的结果。
Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud
本文的作者提出了一个图神经网络 — Point-GNN — 来从LiDAR点云检测物体。该网络预测了图中每个顶点所属物体的类别和形状。Point-GNN有一个自回归机制,可以在一个点云中检测多个物体。
论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Shi_Point-GNN_Graph_Neural_Network_for_3D_Object_Detection_in_a_CVPR_2020_paper.html
提出的方法有三个组成部分:
图构造:使用voxel下采样点云进行图构造
一个T迭代的图神经网络
包围框合并以及打分
以下是在KITTI数据集上得到的结果:
代码:https://github.com/WeijingShi/Point-GNN
Camouflaged Object Detection
本文提出了检测嵌入在周围环境中的物体的挑战 —— 伪装物体检测(COD)。作者还提供了一个名为COD10K的新数据集。它包含10,000张图片,覆盖了许多自然场景中伪装的物体。它有78个物体类别。这些图像使用类别标签、边框、实例级和抠图级标签进行标注。
论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Fan_Camouflaged_Object_Detection_CVPR_2020_paper.html
作者开发了一个称为搜索识别网络(SINet)的COD框架。
代码:https://github.com/DengPingFan/SINet/
该网络有两个主要模块:
用于搜索伪装物体的搜索模块(SM)
检测目标的识别模块(IM)
以下是各数据集的结果:
Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector
本文提出了一种few-shot目标检测网络,其目标是检测只含有少量标注样本的没见过的类别的物体。
论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Fan_Few-Shot_Object_Detection_With_Attention-RPN_and_Multi-Relation_Detector_CVPR_2020_paper.html
他们的方法包括attention-RPN、多关系检测器和对比训练策略。该方法利用few-shot支持集和查询集之间的相似性来识别新物体,同时减少了误识别。作者还提供了一个包含1000个类别的新数据集,其中的物体具有高质量的标注。
该网络体系结构由一个多分支的权值共享框架组成,一个分支是查询集,其他分支是支持集,权值共享框架的查询分支是一个Faster R-CNN网络。
作者介绍了一种带有多关系模块和attention-RPN的检测器,用于在支持和查询中可能出现的框之间进行精确解析。
下面是在ImageNet数据集上获得的一些结果。
以下是在一些数据集上获得的观察结果。
D2Det: Towards High-Quality Object Detection and Instance Segmentation
本文作者提出了D2Det,一种既能精确定位又能精确分类的方法。他们引入了一个稠密的局部回归来预测一个物体的proposal的多个稠密box偏移量。这使他们能够实现精确的定位。
论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Cao_D2Det_Towards_High_Quality_Object_Detection_and_Instance_Segmentation_CVPR_2020_paper.html
为了实现准确的分类,本文还引入了一种有区分性的RoI pooling方案。pooling方案从该方案的多个子区域中抽取样本,并进行自适应加权以获得有区分性的特征。
代码:https://github.com/JialeCao001/D2Det
该方法基于标准的Faster R-CNN框架。在该方法中,传统的Faster R-CNN的盒偏置回归被提出的密集局部回归所代替。在该方法中,通过有区分性的RoI pooling来增强分类能力。
在两阶段方法中,第一阶段采用区域建议网络(RPN),第二阶段采用单独的分类和回归分支。分类分支是基于可区分性池化的。本地回归分支的目标是物体的精确定位。
MS COCO数据集的结果如下:
—END—
英文原文:https://heartbeat.fritz.ai/cvpr-2020-the-top-object-detection-papers-f920a6e41233
往期精彩回顾
适合初学者入门人工智能的路线及资料下载机器学习及深度学习笔记等资料打印机器学习在线手册深度学习笔记专辑《统计学习方法》的代码复现专辑
AI基础下载机器学习的数学基础专辑获取一折本站知识星球优惠券,复制链接直接打开:https://t.zsxq.com/yFQV7am本站qq群1003271085。加入微信群请扫码进群: