

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 推荐的 Inferentia 实例
<a name="inferentia"></a>

Amazon Inferentia 实例旨在为深度学习模型推理工作负载提供高性能和成本效益。具体而言，Inf2 实例类型使用Amazon Inferentia 芯片和 Ne [Amazon uron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/)，后者与流行的机器学习框架（例如和）集成。 TensorFlow PyTorch

客户使用 Inf2 实例之后，能够以最低的云端成本来运行大规模的机器学习推理应用程序，例如搜索、推荐引擎、计算机视觉、语音识别、自然语言处理、个性化和欺诈检测。

**注意**  
应将模型大小作为选择实例的一个因素。如果模型超出了实例的可用 RAM，请为应用程序选择其它具有足够内存的实例类型。
+ [Amazon EC2 Inf2 实例](https://www.amazonaws.cn/ec2/instance-types/inf2/)最多有 16 个Amazon推理芯片和 100 Gbps 的网络吞吐量。

有关开始使用Amazon Inferentia 的更多信息 DLAMIs，请参阅。[带有 DLAMI 的 Amazon 推理芯片](tutorial-inferentia.md)

**后续步骤**  
[推荐的 Trainium 实例](trainium.md)