本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
相关信息
论坛
相关博客文章
常见问题
-
问:如何跟踪与 DLAMI 相关的产品发布信息?
以下是两个建议:
将此博客类别“Amazon 深度学习 AMI”加入书签,可在此处找到:与深度学习 AMI 相关的文章更新列表
。
-
问:是否安装了 NVIDIA 驱动程序和 CUDA?
是。某些 DLAMI 具有不同的版本。带 Conda 的深度学习 AMI 包含任何 DLAMI 的最新版本。CUDA 安装和框架绑定 中进行了详细介绍。您也可以参阅特定 AMI 的发布说明,确认安装了什么。
-
问:是否安装了 cuDNN?
是。
-
问:如何查看检测到的 GPU 及其当前状态?
运行
nvidia-smi
。根据实例类型,将会显示一个或多个 GPU,及其当前的内存消耗。 -
问:是否为我设置了虚拟环境?
是的,但只在 带 Conda 的深度学习 AMI 上。
-
问:安装了 Python 的哪个版本?
每个 DLAMI 都具有 Python 2 和 3。带 Conda 的深度学习 AMI 具有适用于每个框架的两个版本的环境。
-
问:是否安装了 Keras?
视 AMI 而定。带 Conda 的深度学习 AMI 在每个框架的前端提供 Keras。Keras 的版本取决于框架的支持。
-
问:是否免费?
所有 DLAMI 都是免费的。但是,具体取决于您所选择的实例类型,实例可能不免费。有关更多信息,请参阅 DLAMI 的定价。
-
问:我收到了关于我的框架的 CUDA 错误或 GPU 相关消息。这是怎么回事?
检查您使用的实例类型。很多示例和教程需要有 GPU 才能正常运行。如果运行
nvidia-smi
后没有显示任何 GPU,则您需要使用带有一个或多个 GPU 的实例来加速另一个 DLAMI。有关更多信息,请参阅 选择 DLAMI 的实例类型。 -
问:是否可以使用 Docker?
从带 Conda 的深度学习 AMI 版本 14 开始,都已预先安装 Docker。请注意,您需要在 GPU 实例上使用 nvidia-docker
,才能使用 GPU。 -
问:哪些区域提供 Linux DLAMI?
区域 代码 美国东部(俄亥俄州) us-east-2 美国东部(弗吉尼亚州北部) us-east-1 美国西部(北加利福尼亚) us-west-1 美国西部(俄勒冈州) us-west-2 北京(中国) cn-north-1 宁夏(中国) cn-northwest-1 亚太地区(孟买) ap-south-1 亚太地区(首尔) ap-northeast-2 亚太地区(新加坡) ap-southeast-1 亚太地区(悉尼) ap-southeast-2 亚太地区(东京) ap-northeast-1 加拿大(中部) ca-central-1 欧洲(法兰克福) eu-central-1 欧洲(爱尔兰) eu-west-1 欧洲(伦敦) eu-west-2 欧洲(巴黎) eu-west-3 南美洲(圣保罗) sa-east-1 -
问:哪些区域提供 Windows DLAMI?
区域 代码 美国东部(俄亥俄州) us-east-2 美国东部(弗吉尼亚州北部) us-east-1 美国西部(北加利福尼亚) us-west-1 美国西部(俄勒冈州) us-west-2 北京(中国) cn-north-1 亚太地区(孟买) ap-south-1 亚太地区(首尔) ap-northeast-2 亚太地区(新加坡) ap-southeast-1 亚太地区(悉尼) ap-southeast-2 亚太地区(东京) ap-northeast-1 加拿大(中部) ca-central-1 欧洲(法兰克福) eu-central-1 欧洲(爱尔兰) eu-west-1 欧洲(伦敦) eu-west-2 欧洲(巴黎) eu-west-3 南美洲(圣保罗) sa-east-1