语义场景理解对于鲁棒和安全的自主导航至关重要,尤其是在越野环境中。 3D语义分割的最新深度学习进展很大程度上依赖于大量训练数据。但是,现有的自治数据集代表城市环境或缺乏多模式越野数据。我们用RELLIS-3D填补了这一空白,RELLIS-3D是在越野环境中收集的多模式数据集,其中包含13556个LiDAR扫描和6235个图像的注释。该数据是在德克萨斯农工大学Rellis校区收集的,对与类不平衡和环境地形有关的现有算法提出了挑战。此外,我们在此数据集上评估了当前深度学习语义分割模型的最新状态。实验结果表明,RELLIS-3D提出了针对城市环境中分割算法的挑战。除了带注释的数据外,该数据集还以ROS袋格式提供了完整的传感器数据,包括RGB相机图像,LiDAR点云,一对立体图像,高精度GPS测量和IMU数据。这个新颖的数据集提供了研究人员开发更高级算法和研究新的研究方向以增强越野环境中的自主导航所需的资源。
为了提供多模式数据以增强自主越野导航的目的,我们定义了一种对象和地形类别的本体,该本体主要来自RUGD数据集,但还包括RUGD中不存在的独特地形和物体类别。具体来说,该数据集中的序列包括诸如泥浆,人造屏障和碎石桩之类的类别。另外,此数据集为水源(即水坑和深水)提供了更细粒度的类结构,因为这两个类为大多数机器人平台提供了不同的可遍历性方案。总体而言,数据中存在20个类(包括无效类)。
@misc {jiang2020rellis3d,标题= {RELLIS-3D数据集:数据,基准和分析},作者= {Peng Jiang和Philip Osteen和Maggie Wigness和Srikanth Saripalli},年份= {2020},eprint = {2011.12954},archivePrefix = {arXiv},primaryClass = {cs.CV}}
此页面上的所有数据集和代码均由我们版权所有,并以知识共享署名-非商业性-相同方式共享3.0许可发布。