本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
使用 Ground Truth 标注 3D 点云
创建 3D 点云标注作业,以让工作人员在 3D 点云中标注对象,这些点云是从 3D 传感器(例如光检测和测距 (LiDAR) 传感器)和深度摄像机中生成的,或者是从 3D 重建中生成的(通过拼接无人机等代理捕获的图像)。
3D 点云
点云由包含点的三维 (3D) 可视数据组成。每个点是使用三个坐标(通常为 x
、y
和 z
)描述的。要在点云中添加颜色或点强度变化,可以使用其他属性描述点,例如使用 i
表示强度或使用红色 (r
)、绿色 (g
) 和蓝色 (b
) 8 位颜色通道值。在创建 Ground Truth 3D 点云标注作业时,您可以提供点云以及传感器融合数据(可选)。
下图显示了由 Ground Truth 渲染并在语义分割工作人员 UI 中显示的单个 3D 点云场景。
![](images/pointcloud/gifs/semantic_seg/ss_paint_sf.gif)
LiDAR
光检测和测距 (LiDAR) 传感器是一种常见类型的传感器,用于收集在生成点云数据时使用的测量值。LiDAR 是一种遥感方法,它使用脉冲激光形式的光以测量物体与传感器之间的距离。您可以使用接受的原始 3D 数据格式中所述的原始数据格式,为 Ground Truth 3D 点云标注作业提供从 LiDAR 传感器中生成的 3D 点云数据。
传感器融合
Ground Truth 3D 点云标注作业包括传感器融合功能,该功能为所有任务类型提供视频摄像机传感器融合支持。一些传感器配备了多个 LiDAR 设备和视频摄像机,以捕获图像并将其与 LiDAR 帧相关联。为有助于注释者高度自信地直观完成任务,您可以使用 Ground Truth 传感器融合功能通过 3D 扫描仪(例如 LiDAR)外部矩阵以及摄像机外部和内部矩阵将注释(标签)从 3D 点云投影到 2D 摄像机图像,反之亦然。要了解更多信息,请参阅传感器融合。
标注 3D 点云
Ground Truth 提供了工作人员用于标注或注释 3D 点云的用户界面 (UI) 和工具。在使用对象检测或语义分割任务类型时,工作人员可以注释单个点云帧。在使用对象跟踪时,工作人员注释一个帧序列。您可以使用对象跟踪以跟踪对象在序列中的所有帧上的移动情况。
以下内容说明了工作人员如何使用 Ground Truth 工作人员门户和工具,为对象检测任务注释 3D 点云。有关其他任务类型的类似可视示例,请参阅3D 点云任务类型。
![](images/pointcloud/gifs/object_detection/ot_basic_tools.gif)
用于点云注释的辅助标注工具
Ground Truth 提供一些辅助标注工具,以便于工作人员快速准确地完成点云注释任务。有关在工作人员 UI 中包含的每种任务类型的辅助标注工具的详细信息,请选择一种任务类型,然后参阅该页面的查看工作人员任务界面部分。
后续步骤
在使用 Ground Truth 3D 点云标注作业时,您可以创建 6 种类型的任务。可以使用3D 点云任务类型中的主题以了解这些任务类型的更多信息,并了解如何使用所选的任务类型创建标注作业。
3D 点云标注作业不同于其他 Ground Truth 标注模式。在创建标注作业之前,我们建议您阅读3D 点云标注作业概览。此外,请在3D 点云和视频帧标注作业限额中查看输入数据限额。
有关使用 SageMaker API 和 Amazon Python SDK(boto 3)创建 3D 点云标注作业的 end-to-end 演示,请参阅 “示例” 笔记本选项卡中的 create-3D-pointcloud-labeling-job .ipynb
重要
如果您使用在 2020 年 6 月 5 日之前创建的笔记本实例运行该笔记本,您必须停止并重新启动该笔记本实例,笔记本才能正常工作。