Amazon Elastic Compute Cloud
用户指南(适用于 Linux 实例)
AWS 文档中描述的 AWS 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 AWS 服务入门

Amazon Elastic Inference

Amazon Elastic Inference (EI) 是一种您可以附加到 Amazon EC2 CPU 实例用于加速深度学习 (DL) 推理工作负载的资源。Amazon EI 加速器提供有多种大小,是一种为在 Amazon EC2 实例上运行的应用程序引入智能功能的经济高效的方法。

Amazon EI 在低成本 DL 推理加速器和实例的 CPU 之间通过 MXNet 分配由 TensorFlow、Apache MXNet 和开放神经网络交换 (ONNX) 格式定义的模型操作。

有关 Amazon Elastic Inference 的更多信息,请参阅 Amazon EI 开发人员指南