带有 DLAMI 的 AWS Inferentia 芯片 - 深度学习 AMI
AWS 文档中描述的 AWS 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 AWS 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

带有 DLAMI 的 AWS Inferentia 芯片

AWS Inferentia 是 AWS 设计的自定义机器学习芯片,您可以使用该芯片执行高性能推理预测。 要使用该芯片,请设置一个 Amazon 弹性计算云实例,并使用 AWS 神经元软件开发工具包 (开发工具包) 调用推理芯片。为了向客户提供最佳推理体验,AWS 深度学习 AMI (DLAMI) 中内置了神经元。

以下主题将向您展示如何开始将推理与 DLAMI 结合使用。