DLAMI 的功能 - 深度学习 AMI
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

DLAMI 的功能

预装框架

目前有两种主要的 DLAMI,均包含与操作系统 (OS) 和软件版本相关的其他变体:

Conda 的深度学习 AMI 使用 Anaconda 环境来隔离每个框架,因此您可以随意切换框架,而不用担心其依赖项发生冲突。

有关选择最佳 DLAMI 的更多信息,请查看入门

以下是 Conda 深度学习 AMI 支持的框架的完整列表:

  • Apache MXNet (incubating)

  • Chainer

  • Keras

  • PyTorch

  • TensorFlow

  • TensorFlow 2

注意

从 v28 版本开始,Amazon Deep Learning AMI 中将不再包含 CNTK、Caffe、Caffe2 和 Theano Conda 环境。包含这些环境的先前版本的 Amazon Deep Learning AMI 将继续可用。但是,只有在开源社区针对这些框架发布安全修补程序时,我们才会为这些环境提供更新。

预装 GPU 软件

即使您使用仅包含 CPU 的实例,DLAMI 也将具有NVIDIA CUDANVIDIA cuDNN。无论实例类型是什么,安装的软件都是相同的。请记住,GPU 特定工具只适用于至少包含一个 GPU 的实例。选择 DLAMI 的实例类型中包含有关此内容的更多信息。

Elastic Inference Support

带有 Conda 的深度学习 AMI 附带支持 Elastic Inference 的环境,Amazon Deep Learning AMI,Ubuntu 16.04 选项Amazon Deep Learning AMI Amazon Linux 选项。Elastic Inference 环境目前不支持Amazon Deep Learning AMI,Ubuntu 18.04 选项Amazon Deep Learning AMI Amazon Linux 2 选项。有关 Elastic Inference 的教程和更多信息,请参阅Elastic Inference 文档

模型处理和可视化

Conda 的深度学习 AMI 预装有两种模型服务器,一种用于 MXNet,一种用于 TensorFlow,还预装有 TensorBoard,用于模型可视化。