Amazon Elastic Inference
Amazon Elastic Inference (EI) 是一个资源,您可以将其附加到 Amazon EC2 CPU 实例以加速深度学习 (DL) 推导工作负载。Amazon EI 加速器有多种大小,是一种经济高效的方法,可将智能功能构建到 Amazon EC2 实例上运行的应用程序中。
Amazon EI 通过 MXNet 在低成本的 DL Inference 加速器和实例 CPU 之间分配由 TensorFlow、Apache MXNet、PyTorch 和开放神经网络交换 (ONNX) 格式定义的模型操作。
有关 Amazon Elastic Inference 的更多信息,请参阅 Amazon EI 开发人员指南。