首页 文章详情

3D Detection 论文汇总

3D视觉工坊 | 276 2021-12-14 18:04 0 0 0
UniSMS (合一短信)
来源丨AI 修炼之路

这篇文章主要是梳理一下近期3D Detection的进展,分类列举出一些我认为的比较重要的、有代表性的工作。


一、论文分类汇总

1. 基于激光雷达点云的3D检测方法(LiDAR only)

方法名称方法类别发表年份代码是否开源
Part-A^2LiDAR onlyTPAMI 2020
PointRCNNLiDAR onlyCVPR 2019
STDLiDAR onlyICCV 2019
PV-RCNN++LiDAR onlyCVPR 2020
PointPillarLiDAR onlyCVPR 2019
MVPLiDAR onlyNIPS 2021
SE-SSDLiDAR onlyCVPR 2021
SA-SSDLiDAR onlyCVPR 2020
HVPRLiDAR onlyCVPR 2021
LiDAR RCNNLiDAR onlyCVPR 2021
SECONDLiDAR onlySensors 2018
3DIoUMatchLiDAR onlyCVPR 2021
CenterPointLiDAR onlyCVPR 2021
3DSSDLiDAR onlyCVPR 2021
CIA-SSDLiDAR onlyAAAI 2021

2. 基于多模态融合的3D检测方法(LiDAR+RGB)

方法名称方法类别发表年份代码是否开源
AVOD-FPNLiDAR+RGBIROS 2018
F-PointNetLiDAR+RGBCVPR 2018
F-ConvNetLiDAR+RGBIROS 2019
4D-NetLiDAR+RGBICCV 2021
MV3DLiDAR+RGBCVPR 2017
CM3DLiDAR+RGBWACV 2021
H^2 3D RCNNLiDAR+RGBTCSVT 2021
ContFuseLiDAR+RGBECCV 2018
MMFLiDAR+RGBCVPR 2019

3. 基于单目图像的3D检测方法(Monocular)

方法名称方法类别发表年份代码是否开源
AutoShapeMonocularICCV 2021
CaDDNMonocularCVPR 2021
MonoDLEMonocularCVPR 2021
DDMPMonocularCVPR 2021
GUPNetMonocularICCV 2021
FCOS3DMonocularICCVW 2021
PGDMonocularCoRL 2021
MonoGRNetMonocularTPAMI 2021

4. 基于双目图像的3D检测方法(Stereo)

方法名称方法类别发表年份代码是否开源
SIDEStereoWACV 2022
LIGA-StereoStereoICCV 2021
E2E-PLStereoCVPR 2020

5. 基于视角特征提取的3D检测方法

方法名称方法类别发表年份代码是否开源
H^2 3D RCNNFront & Bird viewTCSVT 2021
PointPillarBird viewCVPR 2019
F-PointNetFrustumCVPR 2018
F-ConvNetFrustumIROS 2019
TANetBird viewAAAI 2020

6. 基于特征补充/伪点云生成的3D检测方法(pseudo augment)

方法名称方法类别发表年份代码是否开源
PointPaintingpseudo augmentCVPR 2020
PointAugmentingpseudo augmentCVPR 2021
E2E-PLpseudo augmentCVPR 2020
Pseudo-LiDARpseudo augmentCVPR 2019
Pseudo-LiDAR++pseudo augmentICLR 2020
MVPpseudo augmentNIPS 2021

7. 基于transformer的3D检测方法 (Transformer)

方法名称方法类别发表年份代码是否开源
VoTrTransformerICCV 2021
CT3DTransformerICCV 2021
M3DETRTransformerArxiv
DETR3DTransformerCoRL 2021
PoinTrTransformerICCV 2021

8. 基于半监督学习的3D检测方法(Semi supervised)

方法名称方法类别发表年份代码是否开源
3DALSemi supervisedArxiv
3DIoUMatchSemi supervisedCVPR 2021
WS3DSemi supervisedTPAMI 2021

二、论文分类解读

由于篇幅限制,本文主要讲解基于激光雷达点云的3D检测方法(LiDAR only)。LiDAR only 指的是此类方法仅仅采用点云数据作为输入,方法的主要区分性在于对点云数据不同的特征提取方式。

1. Part-A^2 (TPAMI 2020)

论文地址:https://arxiv.org/pdf/1907.03670.pdf
作者单位:The Chinese University of Hong Kong
代码地址:GitHub - open-mmlab/OpenPCDet: OpenPCDet Toolbox for LiDAR-based 3D Object Detection.
一句话读论文:The ground-truth boxes of 3D object detection not only automatically provide accurate segmentation mask because of the fact that 3D objects are naturally separated in 3D scenes, but also imply the relative locations for each foreground 3D point within the ground truth boxes.
网络框架图:
KITTI testset 实验结果:

整体网络框架分为两个部分:Part-aware stage 和 Part-aggregation stage。
  • Part-aware stage:作者认为前景点的相对位置(intra-object part location)可以表征物体的形状信息。因此,通过估计前景点的相对位置,作者认为可以得到更具有辨别性的特征。
The part-aware network aims to extract discriminative features from the point cloud by learning to estimate the intra-object part locations of foreground points, since these part locations implicitly encode the 3D object’s shapes by indicating the relative locations of surface points of 3D objects.
  • Part-aggregation stage:既然是一个aggregation mechanism,作者具体聚合了哪些特征呢?文中作者主要融合了两部分特征,point-wise part location 以及 point-wise sementic features。利用融合后的特征,进一步预测每一个候选框的置信度和位置。
By considering the spatial distribution of the predicted intraobject part locations and the learned point-wise part features in a 3D box propsoal from stage-I, it is reasonable to aggregate all the information within a proposal for box proposal scoring and refinement.

2. Point RCNN (CVPR 2019)

论文地址:https://arxiv.org/pdf/1812.04244.pdf
作者单位:The Chinese University of Hong Kong
代码地址:https://github.com/sshaoshuai/PointRCNN
一句话读论文:The learned point representation from segmentation is not only good at proposal generation but is also helpful for the later box refinement.
网络框架:

KITTI testset 实验结果:

PointRCNN 整体为two-stage的框架,第一级生成proposal (Bottom-up 3D Proposal Generation),第二级对proposal进行微调并得到最终的检测结果 (Canonical 3D Box Refinement)。
  • Bottom-up 3D Proposal Generation:主要目的是做proposal的生成。对每一个point,提取point-wise feature,预测其属于前景点的概率和相应的proposal大小。对于生成的大量的proposal,利用NMS进行过滤,只保留其中的300个送入第二级进行微调。
  • Canonical 3D Box Refinement:提取第一级proposal更精细的特征用于分类回归。更精细的特征包括:点特征+空间位置特征+RoI特征。

3. STD (ICCV 2019)

论文地址:https://arxiv.org/pdf/1907.10471v1.pdf
作者单位:Youtu Lab, Tencent 等
一句话读论文:They propose a point-based proposal generation paradigm on point cloud with spherical anchors.
网络框架:
KITTI testset 实验结果:
整体框架依然属于two-stage的网络,第一级生成proposal,第二级提取更精细的proposal (point+voxel)特征用于微调。与其他工作相比,STD 网络最大的不同之处在于proposal generation的过程中使用了球形anchor (spherical anchors)。那么如何从球形anchor得到proposal呢?其具体步骤是:
为所有点设定球形anchor → 判断其为前景点的概率 → NMS 过滤冗余anchor → 预测余下的anchor对应的proposal。
作者认为这种球形anchor的优点在于:球形anchor可以不必考虑物体朝向问题,极大减小了计算量;

4. PV-RCNN/PV-RCNN++(CVPR 2020)

论文地址:https://arxiv.org/pdf/2102.00463.pdf
作者单位:The Chinese University of Hong Kong
代码地址:https://github.com/open-mmlab/OpenPCDet
一句话读论文:They propose a novel two-stage detection network for accurate 3D object detection through a two-step strategy of point-voxel feature aggregation.
网络框架:
KITTI testset 实验结果:
整体框架属于two-stage,有两个核心内容,第一个voxel feature → keypoints feature,第二个keypoints feature → proposal/grid feature。
  • voxel feature → keypoints feature
    将大量的voxel feature 整合在少量的keypoints上,整合的过程包括了:原始raw points feature + multi-scale voxel feature + bev feature;
  • keypoints feature → proposal/grid feature
    这一步其实就是利用之前整合的keypoints feature对每一个proposal做RoI Grid Pooling。只是需要额外注意的是,这个的grid 半径是多尺度的,作者认为这种方式可以提取更丰富的proposal feature。

5. PointPillar(CVPR 2019)

论文地址:https://arxiv.org/pdf/1812.05784.pdf
作者单位:Oscar Beijbom and nuTonomy: an APTIV company
一句话读论文:A novel encoder which utilizes PointNets to learn a representation of point clouds organized in vertical columns (pillars).
网络框架:
KITTI testset 实验结果:
本文仅做学术分享,如有侵权,请联系删文。

3D视觉精品课程推荐:

1.面向自动驾驶领域的多传感器数据融合技术

2.面向自动驾驶领域的3D点云目标检测全栈学习路线!(单模态+多模态/数据+代码)
3.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进
4.国内首个面向工业级实战的点云处理课程
5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解
6.彻底搞懂视觉-惯性SLAM:基于VINS-Fusion正式开课啦
7.彻底搞懂基于LOAM框架的3D激光SLAM: 源码剖析到算法优化
8.彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM +LIO-SAM)

9.从零搭建一套结构光3D重建系统[理论+源码+实践]

10.单目深度估计方法:算法梳理与代码实现
11.自动驾驶中的深度学习模型部署实战
12.相机模型与标定(单目+双目+鱼眼)

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。


一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列三维点云系列结构光系列手眼标定相机标定、激光/视觉SLAM、自动驾驶等)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近4000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款
 圈里有高质量教程资料、可答疑解惑、助你高效解决问题
觉得有用,麻烦给个赞和在看~  

good-icon 0
favorite-icon 0
收藏
回复数量: 0
    暂无评论~~
    Ctrl+Enter