深度学习 AMI
开发人员指南
AWS 文档中描述的 AWS 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 Amazon AWS 入门

DLAMI 的功能

预装框架

目前有三种主要的 DLAMI,均包含与操作系统 (OS) 和软件版本相关的其他变体:

新的 采用 Conda 的 Deep Learning AMI 使用 Anaconda 环境来隔离每个框架,因此您可以随意切换框架,而不用担心其依赖项发生冲突。采用源代码的 Deep Learning AMI 将所有深度学习框架安装到相同的 Python 环境以及框架来源中。

有关选择最佳 DLAMI 的更多信息,请查看 入门

这是和 采用 Conda 的 Deep Learning AMI and 采用源代码的 Deep Learning AMI 之间的受支持框架的完整列表:

  • Apache MXNet

  • Caffe

  • Caffe2

  • CNTK

  • Keras

  • PyTorch

  • TensorFlow

  • Theano**

  • Torch*

注意

* 仅限 采用源代码的 Deep Learning AMI。

** Theano 已逐渐淘汰,因为它不再是有效项目。

预装 GPU 软件

即使您使用仅包含 CPU 的实例,DLAMI 也将具有 NVIDIA CUDANVIDIA cuDNN。无论实例类型是什么,安装的软件都是相同的。请记住,GPU 特定工具只适用于至少包含一个 GPU 的实例。选择 DLAMI 的实例类型 中包含有关此内容的更多信息。

模型处理和可视化

采用 Conda 的 Deep Learning AMI 预装有两种模型服务器,一种用于 MXNet,一种用于 TensorFlow,还预装有 TensorBoard,用于模型可视化。