跳转至

Self-Supervised Pretraining of 3D Features on any Point-Cloud

论文

https://arxiv.org/abs/2101.02691

代码

https://github.com/facebookresearch/DepthContrast

摘要

Cite

在大型标记数据集上进行预训练是在许多计算机视觉任务(如 2D 对象识别、视频分类等)中取得良好性能的先决条件。但是,预训练并未广泛用于 3D 识别任务, 其中最先进的方法训练模型从头开始。一个主要原因是缺乏大型注释数据集,因为 3D 数据既难以获取又费时标记。我们提出了一种简单的自我监督预训练方法, 可以处理任何 3D 数据——单视图或多视图、室内或室外,由各种传感器获取,无需 3D 配准。我们预训练了标准点云和基于体素的模型架构, 并表明联合预训练进一步提高了性能。我们在对象检测、语义分割和对象分类的 9 个基准上评估了我们的模型,它们在这些基准中取得了最先进的结果, 并且可以胜过监督预训练。我们在 ScanNet (69.0% mAP) 和 SUNRGBD (63.5% mAP) 上设置了一个新的最先进的对象检测技术。 我们的预训练模型具有标签效率,并提高了样本很少的类的性能。

点云数据预训练,在3detr里看到用的这篇论文的方法来做数据增强
预训练还是很好用

方法


看不懂,先放着

结论

Cite

我们提出 DepthContrast——一种易于实施的自监督方法,适用于模型架构、输入数据格式、室内/室外 3D、单/多视图 3D 数据。 DepthContrast为3D识别任务预训练高容量模型, 并利用可能没有多视图信息的大规模 3D 数据。我们在检测和分割基准方面展示了最先进的性能,优于所有先前的检测工作。我们提供了重要的见解, 使我们的简单实施工作良好 - 与多种输入数据格式联合训练,并设计可推广的数据增强方案。我们希望 DepthContrast 有助于未来 3D 自我监督学习的工作

评论