Neptune ML 阶段的实例选择 - Amazon Neptune
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

Neptune ML 阶段的实例选择

Neptune ML 处理的不同阶段使用不同的 SageMaker 实例。下面,我们讨论如何为每个阶段选择合适的实例类型。您可以在下面找到有关 SageMaker 实例类型和定价的信息Amazon SageMaker 定价.

选择用于数据处理的实例

SageMaker数据处理步骤需要处理实例有足够的内存和磁盘存储空间,用于输入、中间和输出数据。所需的具体内存和磁盘存储量取决于 Neptune ML 图的特征及其导出的功能。

默认情况下,Neptune ML 选择最小的ml.r5其内存比磁盘上导出的图形数据大小大十倍的实例。

为模型训练和模型转换选择实例

选择正确的实例类型模型训练要么模型转换取决于任务类型、图形大小和周转要求。GPU 实例提供了最佳性能。我们通常建议p3g4dn串行实例。您还可以使用p2要么p4d实例。

默认情况下,Neptune ML 选择比模型训练和模型转换所需的内存更多的最小 GPU 实例。你可以在train_instance_recommendation.json文件,存储在 Amazon S3 数据处理输出位置。下面是一个内容示例:train_instance_recommendation.jsonfile:

{ "instance": "(the recommended instance type for model training and transform)", "cpu_instance": "(the recommended instance type for base processing instance)", "disk_size": "(the estimated disk space required)", "mem_size": "(the estimated memory required)" }

为推理终端节点选择实例

选择正确的实例类型推理终端取决于任务类型、图表大小和预算。默认情况下,Neptune ML 选择最小的ml.m5d实例具有推理终端节点所需的更多内存。

注意

如果需要超过 384 GB 的内存,Neptune ML 将使用ml.r5d.24xlarge实例。

你 Neptune 在infer_instance_recommendation.json文件位于您用于模型训练的 Amazon S3 位置。下面是该文件的内容示例:

{ "instance" : "(the recommended instance type for an inference endpoint)", "disk_size" : "(the estimated disk space required)", "mem_size" : "(the estimated memory required)" }