跳转至

Deep Hough Voting for 3D Object Detection in Point Clouds

论文地址

https://arxiv.org/abs/1904.09664

摘要

Cite

当前的3D物体检测方法深受2D检测器的影响。为了利用2D检测器中的架构,他们通常将3D点云转换为规则网格(即体素网格或鸟瞰图),或者依靠 2D 图像中的检测来提出 3D 框。 很少有作品试图直接检测点云中的物体。在这项工作中,我们回到第一原则,为点云数据构建一个 3D 检测管道,并尽可能通用。然而,由于数据的稀疏性—— 来自 3D 空间中 2D 流形的样本——我们在直接从场景点预测边界框参数时面临一个重大挑战:3D 对象质心可能远离任何表面点,因此难以准确回归一步到位。 为了应对这一挑战,我们提出了 VoteNet,这是一种基于深度点集网络和霍夫投票协同作用的端到端 3D 对象检测网络。我们的模型以简单的设计、 紧凑的模型尺寸和高效率在两个大型真实 3D 扫描数据集 ScanNet 和 SUN RGB-D 上实现了最先进的 3D 检测。值得注意的是,VoteNet 通过使用纯几何信息而不依赖彩色图像, 优于以前的方法。

3detr受这篇论文启发,点云的低级特征提取PointNet++,query point都是从这来的。角度回归任务被设计成分类+回归的形式,而不是直接回归角度,重点看一下这里。 结果看到里面又说这个思路来自于 Frustum PointNets for 3D Object Detection from RGB-D Data这里

方法

通过点来投票中心点,然后用中心点来聚类,最后用聚类的中心点来回归3D框。这个聚类出来的中心点感觉就像是2D检测中的Region Proposal。

总结

Cite

在这项工作中,我们引入了 VoteNet:一种简单但功能强大的 3D 对象检测模型,其灵感来自霍夫投票。该网络学习直接从点云中对对象质心进行投票, 并学习通过它们的特征和局部几何来聚合投票以生成高质量的对象建议。该模型仅使用 3D 点云,与之前同时使用深度和彩色图像的方法相比有了显着改进。 在未来的工作中,我们打算探索如何将 RGB 图像整合到我们的检测框架中,以及如何在下游应用(例如 3D 实例分割)中利用我们的检测器。我们相信, 霍夫投票和深度学习的协同作用可以推广到更多应用,例如 6D 姿态估计、基于模板的检测等,并期待看到更多沿着这条线的未来研究

评论