本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
在 Amazon SageMaker 中部署模型
在训练机器学习模型之后,您可以使用 Amazon SageMaker 对其进行部署,以便通过以下任何方式获得预测,具体取决于您的使用案例:
SageMaker 还提供了用于在部署机器学习模型时管理资源和优化推理性能的功能:
-
要管理边缘设备上的模型,以便在智能相机、机器人、个人计算机和移动设备等边缘设备队列上优化、保护、监控和维护机器学习模型,请参阅使用在边缘部署模型 SageMaker Edge 管理器.
-
要优化 Gluon、Keras、MXNet、PyTorch、TensorFlow、TensorFlow Lite 和 ONNX 模型,以在 Ambarella、ARM、Intel、Nvidia、NXP、Qualcomm、TensorFlow 和 Xilinx 基于 Ambarella、ARM、Intel、Nvidia、NXP、Qualcomm、TensorFlow 和 Xilinx 模型。使用 Neo 优化模型性能.
有关所有部署选项的详细信息,请参阅。部署推理模型.