Amazon EMR
Amazon EMR 版本指南
AWS 服务或AWS文档中描述的功能,可能因地区/位置而异。请点击 Amazon AWS 入门,可查看中国地区的具体差异

S3DistCp (s3-dist-cp)

Apache DistCp 是一款开源工具,可以用于复制大量数据。S3DistCp 是 DistCp 的扩展,为了和 AWS (尤其是 Amazon S3) 一起使用而进行了优化。Amazon EMR 4.0 及更高版本中的 S3DistCp 命令为 s3-dist-cp,您可以将其作为集群或命令行中的步骤添加。使用 S3DistCp 能有效地从 Amazon S3 复制大量数据到 HDFS,供 Amazon EMR 集群中的后续步骤进行处理。您还可以使用 S3DistCp 在 Amazon S3 存储桶之间或从 HDFS 向 Amazon S3 复制数据。若要在存储桶之间和 AWS 账户之间并行复制大量对象,S3DistCp 可扩展性更强,也更高效。

有关演示 S3DistCP 在实际方案中的灵活性的具体命令,请参阅 AWS 大数据博客上的使用 S3DistCp 的七个提示

与 DistCp 一样,S3DistCp 也使用 MapReduce 以分布式方式复制 – 共享副本、错误处理、恢复和跨多个服务器报告任务。有关 Apache DistCp 开源项目的详细信息,请参阅 Apache Hadoop 文档中的 DistCp 指南

在复制操作过程中,S3DistCp 将输出的临时副本暂存在集群上的 HDFS 中。HDFS 中必须有足够空闲空间来暂存数据,否则复制操作会失败。此外,如果 S3DistCp 失败,它不清除临时 HDFS 目录,因此您必须手动清除临时文件。例如,如果将 500 GB 数据从 HDFS 复制到 S3,则 S3DistCp 将所有 500 GB 复制到 HDFS 中的临时目录,然后将数据从临时目录上传到 Amazon S3。复制完成后,S3DistCp 从临时目录中删除文件。如果在复制之前 HDFS 中只剩余 250 GB 空间,则复制操作会失败。

如果 S3DistCp 无法复制部分或全部指定文件,集群步骤会失败,并返回一个非零错误代码。如果发生此情况,S3DistCp 将不会清理部分复制的文件。

重要

S3DistCp 不支持包含下划线字符的 Amazon S3 存储桶名称。

S3DistCp 选项

调用 S3DistCp 时,您可以指定用于更改数据复制和压缩方式的选项。下表描述了这些选项。选项是用参数列表添加到步骤的。下表是 S3DistCp 参数的示例。

选项 描述 必需
--src=LOCATION

待复制数据的位置。可以是 HDFS 或 Amazon S3 位置。

示例:--src=s3://myawsbucket/logs/j-3GYXXXXXX9IOJ/node

重要

S3DistCp 不支持包含下划线字符的 Amazon S3 存储桶名称。

--dest=LOCATION

数据的目标位置。可以是 HDFS 或 Amazon S3 位置。

示例:--dest=hdfs:///output

重要

S3DistCp 不支持包含下划线字符的 Amazon S3 存储桶名称。

--srcPattern=PATTERN

正则表达式会筛选 --src 的部分数据的复制操作。如果指定的既不是 --srcPattern 也不是 --groupBy,那么会将 --src 的所有数据复制到 --dest

如果正则表达式参数包含特殊字符,如星号 (*),那么必须将正则表达式或整个 --args 字符串括在单引号 (') 中。

示例:--srcPattern=.*daemons.*-hadoop-.*

--groupBy=PATTERN

正则表达式让 S3DistCp 连接匹配该表达式的文件。例如,您可以使用此选项把一个小时内写入的所有日志文件组合成为单个文件。已连接文件的文件名是与该分组的正则表达式相匹配的值。

圆括号表明文件应使用的分组方式,与圆括号内的语句匹配的所有项目都组合成单个输出文件。如果正则表达式不包括圆括号内的语句,则集群将在执行 S3DistCp 步骤时失败,并返回错误。

如果正则表达式参数包含特殊字符,如星号 (*),那么必须将正则表达式或整个 --args 字符串括在单引号 (') 中。

如果指定 --groupBy,则仅复制与指定的模式匹配的文件。您不需要同时指定 --groupBy--srcPattern

示例:--groupBy=.*subnetid.*([0-9]+-[0-9]+-[0-9]+-[0-9]+).*

--targetSize=SIZE

要根据 --groupBy 选项创建的文件的大小,以兆字节 (MiB) 为单位。此值必须是整数。如果设置了 --targetSize,则 S3DistCp 尝试匹配此大小;所复制的文件的实际大小可能大于或小于此值。基于数据文件大小聚合任务,因此目标文件大小将可能匹配源数据文件大小。

如果由 --groupBy 连接的文件大于 --targetSize 的值,则将这些文件分解成部分文件,并在末尾附加一个数值按顺序命名。例如,连接组成 myfile.gz 的一个文件将被分解成部分文件,如:myfile0.gzmyfile1.gz 等。

示例:--targetSize=2

--appendToLastFile

指定将文件从 Amazon S3 复制到已存在的 HDFS 时 S3DistCp 的行为。它向现有文件附加新文件数据。如果将 --appendToLastFile--groupBy 结合使用,则将新数据附加到与相同的组匹配的文件。与 --targetSize 结合使用时,此选项也具有 --groupBy. 行为

--outputCodec=CODEC

指定用于所复制文件的压缩编解码器。取值可以是:gzipgzlzosnappynone。您可以使用此选项,例如,把 Gzip 压缩的输入文件转换为 LZO 压缩的输出文件,或对文件进行解压缩,作为复制操作的一部分。如果选择输出编解码器,则系统会在文件名末尾追加适当的扩展名 (例如,对于 gzgzip,将追加扩展名 .gz)。如果不为 --outputCodec 指定值,则复制的文件不会出现压缩方面的变化。

示例:--outputCodec=lzo

--s3ServerSideEncryption

确保目标数据使用 SSL 传输,并在 Amazon S3 中使用 AWS 服务端密钥自动加密。使用 S3DistCp 检索数据时,不会自动取消加密对象。如果尝试将未加密的对象复制到需要加密的 Amazon S3 存储桶,则操作将失败。有关更多信息,请参阅 Using Data Encryption

示例:--s3ServerSideEncryption

--deleteOnSuccess

如果复制操作成功,此选项会让 S3DistCp 从源位置删除已复制的文件。如果您以计划任务的形式将输出文件 (如日志文件) 从一个位置复制到另一个位置,又不想复制两次相同的文件,那么这个选项会非常有用。

示例:--deleteOnSuccess

--disableMultipartUpload

禁用分段上传。

示例:--disableMultipartUpload

--multipartUploadChunkSize=SIZE

分段上传的部分文件的大小,以 MiB 为单位。默认情况下,它在写入 Amazon S3 时使用分段上传。默认组块大小为 16 MiB。

示例:--multipartUploadChunkSize=32

--numberFiles

在输出文件之前加上序号。计数从 0 开始,除非 --startingIndex 指定一个不同的值。

示例:--numberFiles

--startingIndex=INDEX

使用 --numberFiles 指定序列中的第一个数字。

示例:--startingIndex=1

--outputManifest=FILENAME

创建使用 Gzip 压缩的文本文件,其中包含由 S3DistCp 复制的所有文件的列表。

示例:--outputManifest=manifest-1.gz

--previousManifest=PATH

读取清单文件,该文件使用 --outputManifest 标志在此前调用 S3DistCp 期间创建。设置 --previousManifest 标志时,S3DistCp 从复制操作中排除清单所列文件。如果同时指定 --outputManifest--previousManifest,则之前清单中列出的文件也会出现在新的清单文件中,但不会复制这些文件。

示例:--previousManifest=/usr/bin/manifest-1.gz

--requirePreviousManifest

需要对 S3DistCp 进行的上一次调用期间创建的之前清单。如果将它设置为 false,则不指定之前的清单也不会生成错误。默认值为 true。

--copyFromManifest

反转 --previousManifest 的行为,让 S3DistCp 使用指定的清单文件作为待复制文件的列表,代替复制时要排除的文件的列表。

示例:--copyFromManifest --previousManifest=/usr/bin/manifest-1.gz

--s3Endpoint=ENDPOINT

指定上传文件时要使用的 Amazon S3 终端节点。此选项会同时设置源位置和目标位置的终端节点。如果未设置,则默认终端节点是 s3.amazonaws.com。有关 Amazon S3 终端节点的列表,请参阅 Regions and Endpoints

示例:--s3Endpoint=s3-eu-west-1.amazonaws.com

--storageClass=CLASS

目标为 Amazon S3 时要使用的存储类。有效值是 STANDARD 和 REDUCED_REDUNDANCY。如果不指定此选项,则 S3DistCp 尝试保留存储类。

示例:--storageClass=STANDARD

--srcPrefixesFile=PATH

Amazon S3 (s3://)、HDFS (hdfs:///) 或本地文件系统 (file:/) 中包含 src 前缀的文本文件 (每行一个前缀)。

如果提供了 srcPrefixesFile,S3DistCp 不会列出 src 路径。相反,它将生成一个源列表,以作为列出在此文件中指定的所有前缀的组合结果。与 src 相比较的相对路径 (而不是这些前缀) 将用于生成目标路径。如果还指定了 srcPattern,则会将它应用于源前缀的组合列表结果以进一步筛选输入。如果使用了 copyFromManifest,则会复制清单中的对象并忽略 srcPrefixesFile

示例:--srcPrefixesFile=PATH

除了上述选项外,S3DistCp 还执行 Tool interface,也就是说,支持通用选项。

添加 S3DistCp 作为集群中的步骤

您可以添加 S3DistCp 作为集群中的步骤进行调用。可以使用控制台、CLI 或 API 在启动时向集群或是向正在运行的集群添加步骤。以下示例说明如何向正在运行的集群添加 S3DistCp 步骤。有关向集群添加步骤的更多信息,请参阅向集群提交工作

使用 AWS CLI 向正在运行的集群添加 S3DistCp 步骤

有关如何在 AWS CLI 中使用 Amazon EMR 命令的更多信息,请参阅 http://docs.amazonaws.cn/cli/latest/reference/emr

  • 要向集群添加调用 S3DistCp 的步骤,请将实参传递给指定 S3DistCp 应如何执行复制操作的形参。

    以下示例将守护程序日志从 Amazon S3 复制到 hdfs:///output。在以下命令中:

    • --cluster-id 指定集群

    • Jar 是 S3DistCp JAR 文件的位置

    • Args 是传递到 S3DistCp 的选项名称–值对的逗号分隔的列表。有关可用选项的完整列表,请参阅S3DistCp 选项

    要向正在运行的集群添加 S3DistCp 复制步骤,请在某个 JSON 文件 (本例中为 myStep.json) 中输入以下内容并保存到 Amazon S3 或本地文件系统中。将 j-3GYXXXXXX9IOK 替换为您的集群 ID,并将 mybucket 替换为您的 Amazon S3 存储桶名称。

    [ { "Name":"S3DistCp step", "Args":["s3-dist-cp","--s3Endpoint=s3.amazonaws.com","--src=s3://mybucket/logs/j-3GYXXXXXX9IOJ/node/","--dest=hdfs:///output","--srcPattern=.*[a-zA-Z,]+"], "ActionOnFailure":"CONTINUE", "Type":"CUSTOM_JAR", "Jar":"command-runner.jar" } ]
    aws emr add-steps --cluster-id j-3GYXXXXXX9IOK --steps file://./myStep.json

例 从 Amazon S3 向 HDFS 复制日志文件

此示例还说明如何通向正在运行的集群添加步骤将 Amazon S3 存储桶中存储的日志文件复制到 HDFS 中。在此示例中,--srcPattern 选项用于限制复制到守护程序日志的数据。

要使用 --srcPattern 选项将日志文件从 Amazon S3 复制到 HDFS,请在某个 JSON 文件 (本例中为 myStep.json) 中输入以下内容并保存到 Amazon S3 或本地文件系统中。将 j-3GYXXXXXX9IOK 替换为您的集群 ID,并将 mybucket 替换为您的 Amazon S3 存储桶名称。

[ { "Name":"S3DistCp step", "Args":["s3-dist-cp","--s3Endpoint=s3.amazonaws.com","--src=s3://mybucket/logs/j-3GYXXXXXX9IOJ/node/","--dest=hdfs:///output","--srcPattern=.*daemons.*-hadoop-.*"], "ActionOnFailure":"CONTINUE", "Type":"CUSTOM_JAR", "Jar":"command-runner.jar" } ]