带有 DLAMI 的 AWS Inferentia 芯片 - 深度学习 AMI
AWS 文档中描述的 AWS 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 AWS 服务入门

如果我们为英文版本指南提供翻译,那么如果存在任何冲突,将以英文版本指南为准。在提供翻译时使用机器翻译。

带有 DLAMI 的 AWS Inferentia 芯片

AWS Inferentia 是 AWS 设计的自定义机器学习芯片,您可以使用该芯片执行高性能推理预测。 要使用该芯片,请设置一个 Amazon Elastic Compute Cloud 实例,并使用 AWS Neuron 开发工具包 (SDK) 调用 Inferentia 芯片。为了向客户提供最佳 Inferentia 体验,Neuron 已内置在 AWS Deep Learning AMI (DLAMI) 中。

以下主题将向您展示如何开始将 Inferentia 与 DLAMI 结合使用。