

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 启动带有神经元的 DLAMI 实例 Amazon
<a name="tutorial-inferentia-launching"></a>

 最新的 DLAMI 已准备好 Amazon 与 Inferentia 一起使用，并附带 Neuron API 包。 Amazon 要启动 DLAMI 实例，请参阅[启动和配置 DLAMI](https://docs.amazonaws.cn/dlami/latest/devguide/launch-config.html)。获得 DLAMI 后，请使用此处的步骤确保 Amazon 您的推理芯片 Amazon 和 Neuron 资源处于活动状态。

**Topics**
+ [验证您的实例](#tutorial-inferentia-launching-verify)
+ [识别 Amazon 推理设备](#tutorial-inferentia-launching-identify)
+ [查看资源使用量](#tutorial-inferentia-launching-resource-usage)
+ [使用 Neuron Monitor（Neuron 监视器）](#tutorial-inferentia-launching-neuron-monitor)
+ [升级 Neuron 软件](#tutorial-inferentia-launching-upgrade)

## 验证您的实例
<a name="tutorial-inferentia-launching-verify"></a>

 在使用您的实例之前，验证该实例是否已针对 Neuron 进行正确的设置和配置。

## 识别 Amazon 推理设备
<a name="tutorial-inferentia-launching-identify"></a>

 要确定实例上的 Inferentia 设备数量，请使用以下命令：

```
neuron-ls
```

 如果您的实例已附加了 Inferentia 设备，则输出将如下所示：

```
+--------+--------+--------+-----------+--------------+
| NEURON | NEURON | NEURON | CONNECTED |     PCI      |
| DEVICE | CORES  | MEMORY |  DEVICES  |     BDF      |
+--------+--------+--------+-----------+--------------+
| 0      | 4      | 8 GB   | 1         | 0000:00:1c.0 |
| 1      | 4      | 8 GB   | 2, 0      | 0000:00:1d.0 |
| 2      | 4      | 8 GB   | 3, 1      | 0000:00:1e.0 |
| 3      | 4      | 8 GB   | 2         | 0000:00:1f.0 |
+--------+--------+--------+-----------+--------------+
```

 提供的输出取自 Inf1.6xlarge 实例，包括以下各列：
+ 神经元设备：分配给的逻辑 ID。 NeuronDevice此 ID 用于将多个运行时配置为使用不同的 NeuronDevices运行时。
+ NEURON CORE： NeuronCores 存在于 NEURON CORES 中的 NeuronDevice数量。
+ 神经元内存：中的 DRAM 内存量。 NeuronDevice
+ 连接的设备：其他 NeuronDevices 连接到 NeuronDevice。
+ PCI BDF：的 PCI 总线设备功能 (BDF) ID。 NeuronDevice

## 查看资源使用量
<a name="tutorial-inferentia-launching-resource-usage"></a>

 使用命令查看有关 NeuronCore vCPU 利用率、内存使用率、已加载模型和 Neuron 应用程序的有用信息。`neuron-top`不`neuron-top`带参数启动将显示所有使用的机器学习应用程序的数据 NeuronCores。

```
neuron-top
```

 当应用程序使用四时 NeuronCores，输出应类似于下图：

![\[neuron-top命令的输出，其中一个命令的信息 NeuronCores 突出显示。\]](http://docs.amazonaws.cn/dlami/latest/devguide/images/neuron-top-output.png)


有关用于监控和优化基于 Neuron 的推理应用程序的资源的更多信息，请参阅 [Neuron 工具](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-guide/neuron-tools/index.html)。

## 使用 Neuron Monitor（Neuron 监视器）
<a name="tutorial-inferentia-launching-neuron-monitor"></a>

Neuron Monitor 从系统上运行的 Neuron 运行时系统收集指标，并将收集的数据以 JSON 格式流式传输到 stdout。这些指标按指标组进行组织，您可以通过提供配置文件进行配置。有关 Neuron Monitor 的更多信息，请参阅 [Neuron Monitor 用户指南](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-guide/neuron-tools/neuron-monitor-user-guide.html)。

## 升级 Neuron 软件
<a name="tutorial-inferentia-launching-upgrade"></a>

[有关如何在 DLAMI 中更新 Neuron SDK 软件的信息，请参阅 Amazon 《神经元设置指南》。](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-intro/neuron-install-guide.html)

**下一个步骤**  
[将 DLAMI 与神经元一起使用 Amazon](tutorial-inferentia-using.md)