使用以下命令启动 DLAMI 实例AmazonNeuron - 深度学习 AMI
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

使用以下命令启动 DLAMI 实例AmazonNeuron

最新的 DLAMI 已准备就绪,可与配合使用AmazonInferentia 并附带了AmazonNeuron API 包。要启动 DLAMI 实例,请参阅启动和配置 DLAMI。获得 DLAMI 后,请使用此处的步骤来确保您的AmazonInferentia 芯片和Amazon神经元资源处于活动状态。

验证您的实例

在使用您的实例之前,请验证其设置是否正确,并使用 Neuron 进行了配置。

识别AmazonInferentia

要确定实例上的 Inferentia 设备的数量,请使用以下命令:

neuron-ls

如果您的实例连接了 Inferentia 设备,则您的输出将类似于以下内容:

+--------+--------+--------+-----------+--------------+ | NEURON | NEURON | NEURON | CONNECTED | PCI | | DEVICE | CORES | MEMORY | DEVICES | BDF | +--------+--------+--------+-----------+--------------+ | 0 | 4 | 8 GB | 1 | 0000:00:1c.0 | | 1 | 4 | 8 GB | 2, 0 | 0000:00:1d.0 | | 2 | 4 | 8 GB | 3, 1 | 0000:00:1e.0 | | 3 | 4 | 8 GB | 2 | 0000:00:1f.0 | +--------+--------+--------+-----------+--------------+

提供的输出取自 INF1.6xLarge 实例,包括以下各列:

  • 神经元设备:分配给的 Idorge ID NeuronDevice. 此 ID 用于将多个运行时配置为使用不同的运行时 NeuronDevices.

  • 神经元核心:的数量 NeuronCores 存在于 NeuronDevice.

  • 神经元记忆:中的 DRAM 内存量 NeuronDevice.

  • 连接的设备:其他 NeuronDevices 连接到 NeuronDevice.

  • PCI BDF:的 PCI 总线设备功能 (BDF) ID NeuronDevice.

查看资源使用量

查看有关的有用信息 NeuronCore 以及 vCPU 利用率、内存使用率、加载的模型和 Neuron 应用程序neuron-top命令。启动neuron-top不带参数将显示所有使用的机器学习应用程序的数据 NeuronCores.

neuron-top

当一个应用程序使用四个时 NeuronCores,该输出值应该类似于以下图像:


                    的输出neuron-top命令,其中包含四个命令之一的信息 NeuronCores 突出显示的。

有关用于监控和优化基于神经元的推理应用程序的资源的更多信息,请参阅Neron 工具.

使用神经元监视器(神经元监视器)

Neuron Monitor 从系统上运行的神经元运行时收集指标,并将收集的数据以 JSON 格式流式传输到 stdout。这些指标被组织成指标组,您可以通过提供配置文件进行配置。有关神经元监视器的更多信息,请参阅Neuron Monitor 用户指南.

升级Neuron 软件

有关如何在 DLAMI 中更新 Neuron SDK 软件的信息,请参阅AmazonNeuron设置指南.

下一个步骤

将 DLAMI 与结合使用AmazonNeuron