启动 DLAMI 实例AmazonNeuron - 深度学习 AMI
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

启动 DLAMI 实例AmazonNeuron

最新的 DLAMI 已准备好与Amazon推断并附带了Amazon神经元 API 软件包。要启动 DLAMI 实例,请参阅启动和配置 DLAMI。准备好了 DLAMI 后,按照此处的步骤操作,以确保AmazonInferentia 芯片和Amazon神经元资源处于活动状态。

验证您的实例

在使用您的实例之前,验证该实例是否已针对Neuron 进行正确的设置和配置。

识别AmazonInferentia 设备

要确定实例上的 Inferentia 设备的数量,请使用以下命令:

neuron-ls

如果您的实例已附加了 Inferentia 设备,则输出将如下所示:

+--------+--------+--------+-----------+--------------+ | NEURON | NEURON | NEURON | CONNECTED | PCI | | DEVICE | CORES | MEMORY | DEVICES | BDF | +--------+--------+--------+-----------+--------------+ | 0 | 4 | 8 GB | 1 | 0000:00:1c.0 | | 1 | 4 | 8 GB | 2, 0 | 0000:00:1d.0 | | 2 | 4 | 8 GB | 3, 1 | 0000:00:1e.0 | | 3 | 4 | 8 GB | 2 | 0000:00:1f.0 | +--------+--------+--------+-----------+--------------+

提供的输出来自于 INF1.6xLarge 实例,包含以下列:

  • 神经元设备:分配给的逻辑 ID NeuronDevice. 将多个运行时配置为使用不同的 NeuronDevices.

  • NEURON 核心:的数量 NeuronCores 存在于 NeuronDevice.

  • NEURON MEMORY:中的 DRAM 内存量 NeuronDevice.

  • 连接的设备:其他 NeuronDevices 连接到 NeuronDevice.

  • PCI BDF:的 PCI 总线设备功能 (BDF) ID NeuronDevice.

查看资源使用量

查看有关的有用信息 NeuronCore 和 vCPU 利用率、内存使用率、加载的模型和 Neuron 应用程序neuron-top命令。启动neuron-top不带参数将显示使用的所有机器学习应用程序的数据 NeuronCores.

neuron-top

当应用程序使用 four 时 NeuronCores,则该输出值应该类似于下图:


                    的输出neuron-top命令,包含四个命令中一个的信息 NeuronCores 突出显示。。

有关用于监视和优化基于 Neuron 的推理应用程序的资源的详细信息,请参阅Neuron 工具.

使用神经元监视器(神经监视器)

Neuron Monitor 从系统上运行的 Neuron 运行时收集指标,并将收集的数据以 JSON 格式流式传输到 stdout。这些指标被组织到指标组中,您可以通过提供配置文件来配置这些量度组。有关神经元监控器的更多信息,请参阅Neuron 监视器用户指南.

升级 Neuron 软件

有关如何在 DLAMI 中更新 Neuron SDK 软件的信息,请参阅AmazonNeuron设置指南.

下一个步骤

将 DLAMI 用于AmazonNeuron