首页 文章详情

6D位姿估计Point Pair Feature (PPF)算法详解

3D视觉工坊 | 843 2021-05-20 14:22 0 0 0
UniSMS (合一短信)
作者丨丁洪凯@知乎
来源丨https://zhuanlan.zhihu.com/p/94952276
编辑丨3D视觉工坊

一、论文解读

论文: Drost et al. Model Globally, Match Locally: Efficient and Robust 3D Object Recognition. CVPR, 2010.
http://campar.in.tum.de/pub/drost2010CVPR/drost2010CVPR.pdf
Model Globally, Match Locally 论文名字用 4 个词高度总结了 PPF 算法的精髓:“整体建模,局部匹配”。下面研读一下摘要(Abstarct):
[1] This paper addresses the problem of recognizing free form 3D objects in point clouds.
第一句话表明论文的研究方向与问题:3D物体点云(free form)的识别
[2] Compared to traditional approaches based on point descriptors, which depend on local information around points, we propose a novel method that creates a global model description based on oriented point pair features and matches that model locally using a fast voting scheme.
第二句话既表明论文的创新点(与前人方法的区别),又用一句话总结本文的中心思想。
·Model Globally: creates a global model description based on oriented point pair features
·Match Locally: matches that model locally using a fast voting scheme
[3] The global model description consists of all model point pair features and represents a mapping from the point pair feature space to the model, where similar features on the model are grouped together.
第三句话紧接着解释了什么是 global model description
[4] Such representation allows using much sparser object and scene point clouds, resulting in very fast performance.
第四句话说明这种 representation 的优点:稀疏采样,提升算法速度
[5] Recognition is done locally using an efficient voting scheme on a reduced two-dimensional search space.
第五句话表明如何实现 recognition:使用有效的投票机制在二维搜索空间里做局部匹配
[6] We demonstrate the efficiency of our approach and show its high recognition performance in the case of noise, clutter and partial occlusion.
第六句话表明本文算法针对的场景问题:干扰、堆叠、部分遮挡
[7] Compared to state of the art approaches we achieve better recognition rates, and demonstrate that with a slight or even no sacrifice of the recognition performance our method is much faster then the current state of the art approaches.
第七句话说明通过与 SOTA 方法的对比,文中提出的方法既保证了高的识别率,又在不牺牲识别性能的情况下提升了算法的速度。
接下来看一下论文的算法:

1. Model Globally

首先定义两个词:scene 和 model ,scene 是我们测得的真实场景(点云),model 是物体的真实模型(点云)。
Both the scene and the model are represented as a finite set of oriented points, where a normal is associated with each point.
符号表示:
  •  points in the scene
  •  points in the model
(1)Point Pair Feature (PPF)
Model Gobally 的本质是通过定义 Point Pair Feature,来构建特征矢量的集合以及每个特征矢量对应的点对集,作为 Global Model Desciption。所以,首先先定义 PPF。
PPF 描述了两个有向点(oriented points)的相对位置和姿态。
假设有两个点  和  ,法向量(normals)分别为  和  ,  ,则 PPF 定义为:
注:  为两个矢量的夹角,且  是非对称的。PPF 示意图见 Figure2.(a)。
有了 Point Pair Feature,就可以用其来定义 Global Model Description。
(2)Global Model Description
注:Global Model Description 是离线(in the off-line phase)构建的
先看原文:
The model is represented by a set of point pair features with similar feature vectors being grouped together.
实现方法:
第一步:计算 model 表面所有 point pairs 的特征矢量  ,其中 distances 和 angles 分别以  和  的步长做采样;
第二步:构建哈希表(hash table),将具有相同 feature vector  的 point pair 放在一起,即哈希表的键(key )为 feature vector  ,值(value)为具有相同特征矢量的点对集  ,如 Figure2.(b) 所示。
The global model description is a mapping from the sampled point pair feature space to the model.

2. Match Locally

当定义好全局模型描述(Global Model Description)后,就可以考虑局部匹配了。
All model features  that are similar to a given scene feature  can then be searched in constant time by using  as a key to access the hash table.
(1)Local Coordinates
局部匹配的大概思路如下:
·从 scene 中选取任意一个参考点  ,假设它在物体的表面上,若假设正确,则在 model 存在一个点  与  对应;
·将这两个参考点配准,需同时将点的位置和法向量对齐;
·让 model 绕  的法向轴转动一定角度与 scene 配准
由此看来,从 model space 到 scene space 的刚体变换可以由 model 中的一点和转动角度  来描述,将这个 pair  定义为 model 相对于参考点  的Local Coordinates 。
现在明确一下思路:
·给定参考点  ,选取与 scene 点对  具有相似 fecture vector (same distance and relative orientation)的 model 点对  ;
·通过变换矩阵  将  移动到 Local Coordinates 的原点,并且转动 model,使其法向轴  与 Local Coordinates 的  轴重合;
·同理,通过  对 scene 做相同操作;
·最后,将 model 中的一点  绕  轴转动  与  配准
通过上述描述,可以将从 model 到 scene 的 transformation 定义为:  ,如 Figure 3 所示。
(2)Voting Scheme
现在我们可以将研究问题定义如下:
前面我们定义了 local coordinates,现在只需要通过一种方法找到最优的 local coordinates 使得 scene 中落在 model 表面的点最多,即可求出物体 pose。
论文通过投票机制实现,定义一个二维的 accumulator array,行(rows)数  为 model 采样点  的个数,列(columns)数  为按采样步长  的旋转角  的个数。
This accumulator array represents the discrete space of local coordinates for a fixed reference point.
具体实现:
·对于 scene 的参考点  ,与 scene 中所有其他的点组成点对  ,对每一个点对,计算  ;
·将  作为 key,搜索 global model description 的哈希表,找到与  类似(distance & normal)的 model 特征矢量  和点对  ;
·对于每个匹配的 model 点对  ,通过之前的公式  可以算出旋转角  ;
·对  与二维数组中离散  对应的位置投票(+1);
·全部计算完后,我们就可以得到参考点  的最大得票所对应的  和  ,即最优的 local coordinates 
(3)Efficient Voting Loop
对每个点对都要求解  ,为了加速计算,将  分解:  ,这样就可以分别计算  和  了。
根据  和  ,求得:
注:
·对于 model 或者 scene 中的每个点对,  都是唯一的
·对于 model 中的每个点对,  可以在离线阶段求解
·对于 scene 中的每个点对,  只需要算一次
(4)Pose Clustering
之前的算法基于我们的假设:参考点是在物体表面的。因此,我们需要在 scene 点云中采样多个参考点  ,保证至少有一个参考点能在物体表面。
每个参考点可能返回多个位姿(投票相同),返回的位姿(retrieved poses)是否逼近 ground truth,取决于 model 和 scene 点的采样率和旋转角的采样。
我们对所有返回的位姿做聚类,每个 clutter 中位姿的位置、姿态的差异不超过设定的阈值,然后每个聚类的得分是其包含的所有位姿的总得分,找出得分最高的 clutter,则最终的位姿 为得分最高的 clutter 里面包含位姿的平均值。
如果场景中存在物体的多个实例,则会返回多个 clutters。

二、 OpenCV 实现

opencv_contrib 代码:
https://github.com/opencv/opencv_contrib/tree/master/modules/surface_matching
文档 Documentation:
https://docs.opencv.org/3.0-beta/modules/surface_matching/doc/surface_matching.html
测试数据集:
http://staffhome.ecm.uwa.edu.au/~00053650/recognition.html
注意:
·Mian数据集 ply 文件不含 normal 信息,需先计算法向量
·可视化使用的 open3d(颜色渲染:z coordinate as color)
测试结果:
model
scene
将经过位姿转换的 model 点云与 scene 点云叠加的效果:
transformed model & scene

三、Matlab 实现

Github Project:
https://github.com/guglu/ppf-matching
注:
代码中 mex 可执行文件应该是在 windows 平台下编译的,而我是在 ubuntu 系统中使用 matlab,所以需要重新编译一下,在 command line 中运行:
mex mex/computePPFmex.cpp
mex mex/computePPFmex.cpp
mex mex/MurmurHash3.cpp
运行 test_detector.m 脚本即可。
model
scene
结果:

四、PCL 实现

PCL 中关于 PPF 的示例代码如下:
https://github.com/PointCloudLibrary/pcl/blob/master/apps/src/ppf_object_recognition.cpp
PCL 中定义了:
PPFSignature:ppf 特征,定义在 point_types.hpp 中,是一种数据类型;
PPFHashMapSearch:哈希表搜索模板类
PPFRegistration:ppf 配准模板类
建议在 PPF 之后用 ICP 迭代优化。
效果如下:
本文仅做学术分享,如有侵权,请联系删文。
下载1
在「3D视觉工坊」公众号后台回复:3D视觉即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。

下载2
「3D视觉工坊」公众号后台回复:3D视觉github资源汇总即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。

下载3
「3D视觉工坊」公众号后台回复:相机标定即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配即可下载独家立体匹配学习课件与视频网址。

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。


一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列三维点云系列结构光系列手眼标定相机标定orb-slam3等视频课程)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款
 圈里有高质量教程资料、可答疑解惑、助你高效解决问题
觉得有用,麻烦给个赞和在看~  

good-icon 0
favorite-icon 0
收藏
回复数量: 0
    暂无评论~~
    Ctrl+Enter