运行GPU作业 - Amazon Batch
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

运行GPU作业

GPU作业可以帮助您运行使用实例的作业GPUs。

支持以下EC2GPU基于 Amazon 的实例类型。有关更多信息,请参阅亚马逊 EC2 G3 实例、亚马逊 G EC2 4 实例、亚马逊 EC2 G5 实例、亚马逊 P2 实例、亚马逊 EC2 P EC2 3 实例、亚马逊 P4d 实例和EC2亚马逊 P5 实例。EC2

实例类型

GPUs

GPU记忆

vCPUs

内存

网络带宽

g3s.xlarge

1

8 GiB

4

30.5 GiB

10 Gbps

g3.4xlarge

1

8 GiB

16

122 GiB

最高 10 Gbps

g3.8xlarge

2

16 GiB

32

244 GiB

10 Gbps

g3.16xlarge

4

32 GiB

64

488 GiB

25 Gbps

g4dn.xlarge

1

16 GiB

4

16 GiB

最高 25 Gbps

g4dn.2xlarge

1

16 GiB

8

32 GiB

最高 25 Gbps

g4dn.4xlarge

1

16 GiB

16

64 GiB

最高 25 Gbps

g4dn.8xlarge

1

16 GiB

32

128 GiB

50 Gbps

g4dn.12xlarge

4

64 GiB

48

192 GiB

50 Gbps

g4dn.16xlarge

1

16 GiB

64

256 GiB

50 Gbps

g5.xlarge

1

24 GiB

4

16 GiB

最高 10 Gbps

g5.2xlarge

1

24 GiB

8

32 GiB

最高 10 Gbps

g5.4xlarge

1

24 GiB

16

64 GiB

最高 25 Gbps

g5.8xlarge

1

24 GiB

32

128 GiB

25 Gbps

g5.16xlarge

1

24 GiB

64

256 GiB

25 Gbps

g5.12xlarge

4

96 GiB

48

192 GiB

40Gbps

g5.24xlarge

4

96 GiB

96

384 GiB

50 Gbps

g5.48xlarge

8

192 GiB

192

768 GiB

100 Gbps

p2.xlarge

1

12 GiB

4

61 GiB

p2.8xlarge

8

96 GiB

32

488 GiB

10 Gbps

p2.16xlarge

16

192 GiB

64

732 GiB

20 Gbps

p3.2xlarge

1

16 GiB

8

61 GiB

最高 10 Gbps

p3.8xlarge

4

64 GiB

32

244 GiB

10 Gbps

p3.16xlarge

8

128 GiB

64

488 GiB

25 Gbps

p3dn.24xlarge

8

256 GiB

96

768 GiB

100 Gbps

p4d.24xlarge

8

320 GiB

96

1152 GiB

4x100 Gbps

p5.48xlarge

8

640 GiB

192

2 TiB

32x100 Gbps

注意

中的作业仅支持NVIDIAGPU和使用 x86_64 架构的GPU实例类型。 Amazon Batch例如,不支持 G4adG5g 实例系列。

作业定义的resourceRequirements参数指定要固定GPUs到容器的数量。在作业持续时间内,在该实例上运行的任何其他作业都GPUs无法使用此数字。计算环境中运行GPU作业的所有实例类型都必须来自p2p3p4p5g3g3sg4、或g5实例系列。如果不这样做,GPU工作可能会停留在RUNNABLE状态中。

不使用的作业GPUs可以在GPU实例上运行。但是,与类似的非GPU实例相比,它们在实例上运行的成本可能更高。GPU根据具体的 v CPU、内存和所需的时间,这些非GPU作业可能会阻碍GPU作业的运行。