Amazon Elastic Inference - Amazon Elastic Compute Cloud
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

Amazon Elastic Inference

Amazon Elastic Inference (EI) 是一个资源,您可以将其附加到 Amazon EC2 CPU 实例以加速深度学习 (DL) 推导工作负载。Amazon EI 加速器有多种大小,是一种经济高效的方法,可将智能功能构建到 Amazon EC2 实例上运行的应用程序中。

Amazon EI 通过 MXNet 在低成本的 DL Inference 加速器和实例 CPU 之间分配由 TensorFlow、Apache MXNet、PyTorch 和开放神经网络交换 (ONNX) 格式定义的模型操作。

有关 Amazon Elastic Inference 的更多信息,请参阅 Amazon EI 开发人员指南