本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
将 Amazon S3 用作目标Amazon Database Migration Service
您可以使用Amazon DMS任何支持的数据库源将数据迁移到 Amazon S3。在Amazon DMS任务中使用 Amazon S3 作为目标时,默认情况下,满负载和变更数据捕获 (CDC) 数据都以逗号分隔值 (.csv) 格式写入。对于更紧凑的存储和更快速的查询选项,您还可以选择将数据写入 Apache Parquet (.parquet) 格式。
Amazon DMS命名在满载期间使用增量十六进制计数器创建的文件,例如,.csv 文件的 LOAD00001.csv、LOAD00002...、LOAD00009、LOAD0000A 等。 Amazon DMS使用时间戳命名 CDC 文件,例如 20141029-1134010000.csv。对于每个包含记录的源表,在指定的目标文件夹下Amazon DMS创建一个文件夹(如果源表不为空)。 Amazon DMS将所有满负载和 CDC 文件写入指定的 Amazon S3 存储桶。
参数 bucketFolder
包含 .csv 或 .parquet 文件在上传到 S3 存储桶之前的存储位置。对于.csv 文件,表数据以以下格式存储在 S3 存储桶中,与满载文件一起显示。
database_schema_name
/table_name
/LOAD00000001.csvdatabase_schema_name
/table_name
/LOAD00000002.csv ...database_schema_name
/table_name
/LOAD00000009.csvdatabase_schema_name
/table_name
/LOAD0000000A.csvdatabase_schema_name
/table_name
/LOAD0000000B.csv ...database_schema_name
/table_name
/LOAD0000000F.csvdatabase_schema_name
/table_name
/LOAD00000010.csv ...
您可以使用额外连接属性指定列分隔符、行分隔符以及其他参数。有关额外连接属性的更多信息,请参阅此部分结尾的使用 Amazon S3 作为目标时的终端节点设置Amazon DMS。
您可以使用ExpectedBucketOwner
Amazon S3 终端节点设置指定存储桶所有者并防止监听,如下所示。然后,当您发出测试连接或执行迁移的请求时,S3 根据指定参数检查存储桶拥有者的账户 ID。
--s3-settings='{"ExpectedBucketOwner": "AWS_Account_ID"}'
当您使用Amazon DMS CDC 任务复制数据更改时,.csv 或.parquet 输出文件的第一列指示行数据的更改方式,如以下.csv 文件所示。
I,101,Smith,Bob,4-Jun-14,New York U,101,Smith,Bob,8-Oct-15,Los Angeles U,101,Smith,Bob,13-Mar-17,Dallas D,101,Smith,Bob,13-Mar-17,Dallas
对于该示例,假设源数据库中有一个 EMPLOYEE
表。Amazon DMS 将数据写入 .csv 或 .parquet 文件中来响应以下事件:
-
14 年 6 月 4 日,纽约办事处聘用了一名新员工 (Bob Smith,员工 ID 101)。在 .csv 或 .parquet 文件中,第一列中的
I
指示在源数据库的 EMPLOYEE 表中插入 (INSERT
) 了一个新行。 -
15 年 10 月 8 日,Bob 调到了洛杉矶办事处。在 .csv 或 .parquet 文件中,
U
指示更新 (UPDATE
) 了 EMPLOYEE 表中的相应行以反映 Bob 的新办公地点。该行的其余部分反映更新 (UPDATE
) 后如何显示该 EMPLOYEE 表行。 -
17 年 3 月 13 日,Bob 又调到了达拉斯办事处。在 .csv 或 .parquet 文件中,
U
指示再次更新 (UPDATE
) 了该行。该行的其余部分反映更新 (UPDATE
) 后如何显示该 EMPLOYEE 表行。 -
在达拉斯工作一段时间后,Bob 离开了公司。在 .csv 或 .parquet 文件中,
D
指示在源表中删除DELETE
了该行。该行的其余部分反映在删除之前如何显示该 EMPLOYEE 表行。
请注意,默认情况下,CDC 会Amazon DMS存储每个数据库表的行更改,而不考虑事务顺序。如果要根据事务顺序将行更改存储在 CDC 文件中,则需要使用 S3 终端节点设置来指定此路径以及要在 S3 目标上存储 CDC 事务文件的文件夹路径。有关更多信息,请参阅捕获数据更改(CDC),包括 S3 目标上的事务顺序:
要控制在数据复制任务期间写入 Amazon S3 目标的频率,您可以配置cdcMaxBatchInterval
和cdcMinFileSize
额外的连接属性。这可以在分析数据时提高性能,而无需进行任何额外的开销操作。有关更多信息,请参阅 使用 Amazon S3 作为目标时的终端节点设置Amazon DMS
主题
使用 Amazon S3 作为目标的先决条件
在使用 Amazon S3 作为目标之前,请检查以下条件是否正确:
-
您用作目标的 S3 存储桶与您用于迁移数据的 DMS 复制实例位于同一Amazon区域。
-
您用于迁移的Amazon账户拥有 IAM 角色,对您用作目标的 S3 存储桶具有写入和删除权限。
-
此角色已标记访问,以便您可以标记写入目标存储桶的任何 S3 对象。
-
IAM 角色将 DMS (dms.amazonaws.com) 添加为可信实体。
要设置此账户访问权限,请确保向用于创建迁移任务的用户账户分配的角色具有以下一系列权限。
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:DeleteObject", "s3:PutObjectTagging" ], "Resource": [ "arn:aws:s3:::buckettest2/*" ] }, { "Effect": "Allow", "Action": [ "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::buckettest2" ] } ] }
使用 Amazon S3 作为目标的限制
将 Amazon S3 用作目标时,以下限制适用:
-
不要为 S3 启用版本控制。如果您需要 S3 版本控制,请使用生命周期策略主动删除旧版本。否则,由于 S3
list-object
调用超时,您可能会遇到端点测试连接失败。要为 S3 存储桶创建生命周期策略,请参阅管理存储生命周期。要删除 S3 对象的版本,请参阅从启用版本控制的存储桶中删除对象版本。 -
版本 3.4.7 及更高版本支持启用 VPC(网关 VPC)S3 存储桶。
-
更改数据捕获 (CDC) 支持以下数据定义语言 (DDL) 命令:截断表、删除表、创建表、重命名表、添加列、删除列、重命名列和更改列数据类型。
注意 截断 DDL 操作将删除 S3 存储桶中的所有文件和相应的表。您可以使用任务设置禁用该行为,并配置 DMS 在变更数据捕获 (CDC) 期间处理 DDL 行为的方式。有关更多信息,请参阅更改处理 DDL 处理的任务设置:
-
不支持完整 LOB 模式。
-
不支持在完全加载期间对源表结构进行更改。在满载期间支持对数据进行更改。
-
将多个任务从同一源表复制到同一目标 S3 终端节点存储桶将导致这些任务写入到同一文件。如果您的数据源来自同一个表,我们建议您指定不同的目标终端节点 (存储桶)。
-
BatchApply
S3 终端节点不支持。对 S3 目标使用Batch 应用(例如,BatchApplyEnabled
目标元数据任务设置)可能会导致数据丢失。 -
你不能将 or 与
DatePartitionEnabled
PreserveTransactions
或addColumnName
一起使用CdcPath
。
安全性
要使用 Amazon S3 作为目标,用于迁移的账户必须对用作目标的 Amazon S3 存储桶具有写入和删除权限。指定具有访问 Amazon S3 所需权限的 IAM 角色的 Amazon Resource Name (ARN)。
Amazon DMS支持 Amazon S3 的一组预定义的授权,称为标准访问控制列表(ACL)。每个标准 ACL 都有一组被授权者和权限,您可以使用它们来设置 Amazon S3 存储桶的权限。您可以将 cannedAclForObjects
用于 S3 目标终端节点的连接字符串属性以指定标准 ACL。有关使用额外连接属性 cannedAclForObjects
的更多信息,请参阅使用 Amazon S3 作为目标时的终端节点设置Amazon DMS。有关 Amazon S3 标准 ACL 的更多信息,请参阅标准 ACL。
用于迁移的 IAM 角色必须能够执行 s3:PutObjectAcl
API 操作。
使用 Apache Parquet 存储Amazon S3 对象
逗号分隔值 (.csv) 格式是 Amazon S3 目标对象的默认存储格式。对于更紧凑的存储和更快速的查询,您可以改用 Apache Parquet (.parquet) 作为存储格式。
Apache Parquet 是一种最初专为 Hadoop 设计的开源文件存储格式。有关 Apache Parquet 的更多信息,请参阅 https://parquet.apache.org/
要将 .parquet 设置为您的已迁移 S3 目标对象的存储格式,您可以使用以下机制:
-
您在使用 Amazon CLI 或 Amazon DMS 的 API 创建终端节点时提供作为 JSON 对象的参数的终端节点设置。有关更多信息,请参阅在您的 Amazon S3 目标上使用数据加密、Parquet 文件和 CDC:
-
您在创建终端节点时提供作为分号分隔列表的额外连接属性。有关更多信息,请参阅使用 Amazon S3 作为目标时的终端节点设置Amazon DMS:
Amazon S3 对象标记
您可以通过指定相应的 JSON 对象作为任务表映射规则的一部分来标记复制实例创建的 Amazon S3 对象。有关 S3 对象标记要求和选项的更多信息,包括有效的标签名称,请参阅 Amazon Simple Storage Service 用户指南中的对象标记。有关使用 JSON 的表映射的更多信息,请参阅 使用 JSON 指定表格选择和转换规则。
您可以标记为指定表创建的 S3 对象,方式是使用 selection
规则类型的一个或多个 JSON 对象。然后,您可以使用 add-tag
操作在此 selection
对象后添加 post-processing
规则类型的一个或多个 JSON 对象。这些后处理规则标识要标记的 S3 对象并指定要添加到这些 S3 对象的标签的名称和值。
您可以在下表中找到要在 post-processing
规则类型的 JSON 对象中指定的参数。
参数 | 可能的值 | 描述 |
---|---|---|
rule-type |
post-processing |
一个将后处理操作应用于生成的目标对象的值。您可以指定一个或多个后处理规则以标记所选 S3 对象。 |
rule-id |
一个数字值。 | 一个用于标识规则的唯一数字值。 |
rule-name |
一个字母数字值。 | 一个用于标识规则的唯一名称。 |
rule-action |
add-tag |
要应用于 S3 对象的后处理操作。您可以通过对 add-tag 操作使用单个 JSON 后处理对象来添加一个或多个标签。 |
object-locator |
|
规则应用于的每个架构和表的名称。您可以使用“%”百分比符号作为每个
|
tag-set |
|
要在匹配指定的 您还可以使用 如果为 |
在指定多个 post-processing
规则类型来标记一系列 S3 对象时,将仅使用来自一个后处理规则的一个 tag-set
对象来标记每个 S3 对象。用于标记给定 S3 对象的特定标记集是来自后处理规则的标记集,其关联对象定位器与该 S3 对象最匹配。
例如,假设两个后处理规则标识同一 S3 对象。另外,假设一个规则中的对象定位器使用通配符,而另一个规则中的对象定位器使用精确匹配来标识 S3 对象(不带通配符)。在这种情况下,与后处理规则关联的带精确匹配的标签集将用于标记 S3 对象。如果多个后处理规则同样匹配某个给定 S3 对象,则与第一个此类后处理规则关联的标签集将用于标记该对象。
例 将静态标签添加到为单个表和架构创建的 S3 对象
以下选择和后处理规则将三个标签(tag_1
、tag_2
和 tag_3
,分别带有相应的静态值 value_1
、value_2
和 value_3
)添加到创建的 S3 对象。此 S3 对象对应于带有名为 aat2
的架构的名为 STOCK
的源中的单个表。
{ "rules": [ { "rule-type": "selection", "rule-id": "5", "rule-name": "5", "object-locator": { "schema-name": "aat2", "table-name": "STOCK" }, "rule-action": "include" }, { "rule-type": "post-processing", "rule-id": "41", "rule-name": "41", "rule-action": "add-tag", "object-locator": { "schema-name": "aat2", "table-name": "STOCK" }, "tag-set": [ { "key": "tag_1", "value": "value_1" }, { "key": "tag_2", "value": "value_2" }, { "key": "tag_3", "value": "value_3" } ] } ] }
例 将静态和动态标签添加到为多个表和架构创建的 S3 对象
以下示例具有一个选择规则和两个后处理规则,其中来自源的输入包括所有表及其所有架构。
{ "rules": [ { "rule-type": "selection", "rule-id": "1", "rule-name": "1", "object-locator": { "schema-name": "%", "table-name": "%" }, "rule-action": "include" }, { "rule-type": "post-processing", "rule-id": "21", "rule-name": "21", "rule-action": "add-tag", "object-locator": { "schema-name": "%", "table-name": "%", }, "tag-set": [ { "key": "dw-schema-name", "value":"${schema-name}" }, { "key": "dw-schema-table", "value": "my_prefix_${table-name}" } ] }, { "rule-type": "post-processing", "rule-id": "41", "rule-name": "41", "rule-action": "add-tag", "object-locator": { "schema-name": "aat", "table-name": "ITEM", }, "tag-set": [ { "key": "tag_1", "value": "value_1" }, { "key": "tag_2", "value": "value_2" } ] } ] }
第一个后处理规则将带有相应的动态值(${schema-name}
和 my_prefix_${table-name}
)的两个标签(dw-schema-name
和 dw-schema-table
)添加到目标中创建的几乎所有 S3 对象。例外情况是使用第二个后处理规则标识和标记的 S3 对象。因此,由通配符对象定位器标识的每个目标 S3 对象是使用标识其在源中对应的架构和表的标签创建的。
第二个后处理规则将 tag_1
和 tag_2
(分别带有相应的静态值 value_1
和 value_2
)添加到由精确匹配对象定位器标识的创建的 S3 对象。因此,该创建的 S3 对象对应于带有名为 aat
的架构的名为 ITEM
的源中的单个表。由于精确匹配,这些标签将替换第一个后处理规则中添加的此对象上的任何标签,这仅按通配符匹配 S3 对象。
例 将动态标签名称和值添加到 S3 对象
以下示例具有两个选择规则和一个后处理规则。在这里,源中的输入仅包括 retail
或 wholesale
架构中的 ITEM
表。
{ "rules": [ { "rule-type": "selection", "rule-id": "1", "rule-name": "1", "object-locator": { "schema-name": "retail", "table-name": "ITEM" }, "rule-action": "include" }, { "rule-type": "selection", "rule-id": "1", "rule-name": "1", "object-locator": { "schema-name": "wholesale", "table-name": "ITEM" }, "rule-action": "include" }, { "rule-type": "post-processing", "rule-id": "21", "rule-name": "21", "rule-action": "add-tag", "object-locator": { "schema-name": "%", "table-name": "ITEM", }, "tag-set": [ { "key": "dw-schema-name", "value":"${schema-name}" }, { "key": "dw-schema-table", "value": "my_prefix_ITEM" }, { "key": "${schema-name}_ITEM_tag_1", "value": "value_1" }, { "key": "${schema-name}_ITEM_tag_2", "value": "value_2" } ] ] }
后处理规则的标签集将两个标签(dw-schema-name
和 dw-schema-table
)添加到为目标中的 ITEM
表创建的所有 S3 对象。第一个标签具有动态值 "${schema-name}"
,第二个标签具有静态值 "my_prefix_ITEM"
。因此,每个目标 S3 对象是使用标识其在源中对应的架构和表的标签创建的。
此外,该标签集还添加带动态名称(${schema-name}_ITEM_tag_1
和 "${schema-name}_ITEM_tag_2"
)的两个额外标签。这些标签具有相应的静态值 value_1
和 value_2
。因此,这些标签均针对当前架构 retail
和 wholesale
进行命名。您无法在此对象中创建重复的动态标签名称,因为每个对象都为单个唯一的架构名称创建的。架构名称用于创建另一个唯一的标签名称。
创建Amazon KMS密钥以加密 Amazon S3 目标对象
您可以创建和使用自定义Amazon KMS密钥对 Amazon S3 目标对象进行加密。创建 KMS 密钥后,您可以在创建 S3 目标终端节点时,使用该密钥通过下列方法之一加密对象:
-
当您使用 Amazon CLI 运行
create-endpoint
命令时对 S3 目标对象(采用默认的 .csv 文件存储格式)使用以下选项。--s3-settings '{"ServiceAccessRoleArn": "
your-service-access-ARN
", "CsvRowDelimiter": "\n", "CsvDelimiter": ",", "BucketFolder": "your-bucket-folder
", "BucketName": "your-bucket-name
", "EncryptionMode": "SSE_KMS", "ServerSideEncryptionKmsKeyId": "your-KMS-key-ARN
"}'此处,
是您的 KMS 密钥的 Amazon 资源名称 (ARN)。有关更多信息,请参阅在您的 Amazon S3 目标上使用数据加密、Parquet 文件和 CDC:your-KMS-key-ARN
-
将额外连接属性
encryptionMode
设置为值SSE_KMS
,并将额外连接属性serverSideEncryptionKmsKeyId
设置为您的 KMS 密钥的 ARN。有关更多信息,请参阅使用 Amazon S3 作为目标时的终端节点设置Amazon DMS:
要使用 KMS 密钥对 Amazon S3 目标对象进行加密,您需要具有访问 Amazon S3 存储桶的访问权限的 IAM 角色。然后,可以在附加到您创建的加密密钥的策略(密钥策略)中访问此 IAM 角色。您可以通过创建以下内容在 IAM 控制台中执行此操作:
-
具有访问 Amazon S3 存储桶的访问权限的策略。
-
使用此策略的 IAM 角色。
-
具有引用此角色的密钥策略的 KMS 密钥加密密钥。
以下过程介绍了如何执行此操作。
创建具有访问 Amazon S3 存储桶的访问权限的 IAM 策略
通过以下网址打开 IAM 控制台:https://console.aws.amazon.com/iam/
。 -
在导航窗格中,选择 Policies (策略)。Policies (策略) 页面随即打开。
-
选择 Create policy(创建策略)。此时将打开创建策略页面。
-
选择 Service (服务),然后选择 S3。此时会显示操作权限列表。
-
选择 Expand all (全部展开) 以展开列表并至少选择以下权限:
-
ListBucket
-
PutObject
-
DeleteObject
选择所需的任何其他权限,然后选择 Collapse all (全部折叠) 以折叠列表。
-
-
选择 Resources (资源) 以指定要访问的资源。至少选择所有资源以提供通用 Amazon S3 资源访问权限。
-
添加所需的任何其他条件或权限,然后选择 Review policy (查看策略)。在 Review policy (查看策略) 页面上查看您的结果。
-
如果这些设置是您所需的,请输入策略名称(例如,
DMS-S3-endpoint-access
)及任何其他描述,然后选择 Create policy (创建策略)。Policies (策略) 页面随即打开,并显示一条指示您的策略已创建的消息。 -
在 Policies (策略) 列表中搜索并选择策略名称。此时会显示 Summary (摘要) 页面,并显示与以下内容类似的策略的 JSON。
{ "Version": "2012-10-17", "Statement": [ { "Sid": "VisualEditor0", "Effect": "Allow", "Action": [ "s3:PutObject", "s3:ListBucket", "s3:DeleteObject" ], "Resource": "*" } ] }
例如,您现在已经创建了新策略,用于访问 Amazon S3 资源以使用指定名称进行加密DMS-S3-endpoint-access
。
使用此策略创建 IAM 角色
-
在 IAM 控制台上,选择导航窗格中的 Roles。Roles (角色) 详细信息页面随即打开。
-
选择 Create role(创建角色)。Create role (创建角色) 页面随即打开。
-
选择Amazon服务作为可信实体后,选择 DMS 作为使用 IAM 角色的服务。
-
选择Next: Permissions(下一步: 权限)。Attach permissions policies (附加权限策略) 视图将显示在 Create role (创建角色) 页面中。
-
查找并选择您在上一过程中创建的 IAM 角色的 IAM 策略 (
DMS-S3-endpoint-access
)。 -
请选择下一步:标签。Add tags (添加标签) 视图将显示在 Create role (创建角色) 页面中。您可以在此处添加所需的任何标签。
-
选择 Next: Review(下一步: 审核)。Review (查看) 视图将显示在 Create role (创建角色) 页面中。在这里,您可以验证结果。
-
如果这些设置是您所需的,请输入角色名称(必填,例如
DMS-S3-endpoint-access-role
)及任何其他描述,然后选择 Create role (创建角色)。Roles (角色) 详细信息页面随即打开,并显示一条指示您的角色已创建的消息。
现在,您已创建新角色来访问 Amazon S3 资源,使用指定名称进行加密,例如DMS-S3-endpoint-access-role
。
使用引用您的 IAM 角色的密钥策略创建 KMS 密钥加密密钥
有关如何将 Amazon DMS 与 Amazon KMS 加密密钥结合使用的更多信息,请参阅 设置加密密钥和指定 Amazon KMS 权限。
-
登录到 Amazon Web Services Management Console,然后通过以下网址打开 Amazon Key Management Service (Amazon KMS) 控制台:https://console.aws.amazon.com/kms
。 -
要更改 Amazon Web Services 区域,请使用页面右上角的区域选择器。
-
在导航窗格中,选择客户托管密钥。
-
选择 Create key。此时会打开 Configure key (配置密钥) 页面。
-
对于 Key type (密钥类型),选择 Symmetric (对称)。
注意 创建此密钥时,只能创建对称密钥,因为所有Amazon服务(例如 Amazon S3)仅使用对称加密密钥。
-
选择 Advanced Options。对于 Key material origin (密钥材料来源),请确保选择了 KMS,然后选择 Next (下一步)。此时会打开 Add labels (添加标签) 页面。
-
对于 Create alias and description (创建别名和描述),输入密钥的别名(例如
DMS-S3-endpoint-encryption-key
)和任何其他描述。 -
对于 Tags (标签),添加要用于帮助标识密钥并跟踪其使用情况的任何标签,然后选择 Next (下一步)。此时会打开 Define key administrative permissions (定义密钥管理权限) 页面,其中显示了可供选择的用户和角色的列表。
-
添加要管理密钥的用户和角色。确保这些用户和角色具有管理密钥所需的权限。
-
对于 Key deletion (密钥删除),选择密钥管理员是否能删除密钥,然后选择 Next (下一步)。此时会打开 Define Key Usage Permissions (定义密钥使用权限) 页面,其中显示了可供选择的用户和角色的附加列表。
-
对于此账户,选择您想要在 Amazon S3 目标上执行加密操作的可用用户。此外,还可以选择您之前在角色中创建的角色以允许访问加密 Amazon S3 目标对象,例如
DMS-S3-endpoint-access-role
)。 -
如果您想添加未列出的其他帐户以使其具有相同访问权限,请对于 “其他Amazon帐户”,选择 “添加其他Amazon帐户”,然后选择 “下一步”。此时会打开 Review and edit key policy (查看和编辑密钥策略) 页面,其中显示了密钥策略的 JSON,您可以通过键入到现有 JSON 来查看和编辑该策略。在此处,您可以看到密钥策略引用您在上一步中选择的角色和用户(例如,
Admin
和User1
)的位置。您还可以查看不同委托人(用户和角色)所允许的不同密钥操作,如以下示例所示。{ "Id": "key-consolepolicy-3", "Version": "2012-10-17", "Statement": [ { "Sid": "Enable IAM User Permissions", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:root" ] }, "Action": "kms:*", "Resource": "*" }, { "Sid": "Allow access for Key Administrators", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:role/Admin" ] }, "Action": [ "kms:Create*", "kms:Describe*", "kms:Enable*", "kms:List*", "kms:Put*", "kms:Update*", "kms:Revoke*", "kms:Disable*", "kms:Get*", "kms:Delete*", "kms:TagResource", "kms:UntagResource", "kms:ScheduleKeyDeletion", "kms:CancelKeyDeletion" ], "Resource": "*" }, { "Sid": "Allow use of the key", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:role/DMS-S3-endpoint-access-role", "arn:aws:iam::111122223333:role/Admin", "arn:aws:iam::111122223333:role/User1" ] }, "Action": [ "kms:Encrypt", "kms:Decrypt", "kms:ReEncrypt*", "kms:GenerateDataKey*", "kms:DescribeKey" ], "Resource": "*" }, { "Sid": "Allow attachment of persistent resources", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:role/DMS-S3-endpoint-access-role", "arn:aws:iam::111122223333:role/Admin", "arn:aws:iam::111122223333:role/User1" ] }, "Action": [ "kms:CreateGrant", "kms:ListGrants", "kms:RevokeGrant" ], "Resource": "*", "Condition": { "Bool": { "kms:GrantIsForAWSResource": true } } } ]
-
选择 Finish (结束)。加密密钥页面打开,显示一条消息,表明您的 KMS 密钥已创建。
现在,您已创建一个具有指定别名(例如,DMS-S3-endpoint-encryption-key
)的新 KMS 密钥。此密钥Amazon DMS允许加密 Amazon S3 目标对象。
使用基于日期的文件夹分区
Amazon DMS在您使用 Amazon S3 作为目标终端节点时,支持基于交易提交日期的 S3 文件夹分区。使用基于日期的文件夹分区,您可以将数据从单个源表写入 S3 存储桶中的时间层次结构文件夹结构。通过在创建 S3 目标端点时对文件夹进行分区,您可以执行以下操作:
-
更好地管理您的 S3 对象
-
限制每个 S3 文件夹的大小
-
优化数据湖查询或其他后续操作
创建 S3 目标端点时,可以启用基于日期的文件夹分区。您可以在迁移现有数据和复制正在进行的更改(满负载 + CDC)或仅复制数据更改(仅限 CDC)时启用它。使用以下目标端点设置:
-
DatePartitionEnabled
— 指定基于日期的分区。将此布尔值选项设置为true
,根据事务提交日期对 S3 存储桶文件夹进行分区。您不能将此设置与
PreserveTransactions
或一起使用CdcPath
。默认值为
false
。 -
DatePartitionSequence
— 标识文件夹分区期间使用的日期格式顺序。将此 ENUM 选项设置为YYYYMMDD
YYYYMMDDHH
、YYYYMM
、MMYYYYDD
、或DDMMYYYY
。默认值为YYYYMMDD
。设置为时DatePartitionEnabled
使用此设置true.
-
DatePartitionDelimiter
— 指定要在文件夹分区期间使用的分隔日期分隔符。将此 ENUM 选项设置为SLASH
DASH
、UNDERSCORE
、或NONE
。默认值为SLASH
。在DatePartitionEnabled
设置为true
时使用此设置。
以下示例显示如何使用数据分区序列和分隔符的默认值启用基于日期的文件夹分区。它使用了的--s3-settings '{
选项Amazon CLI。 json-settings
}'create-endpoint
命令。
--s3-settings '{"DatePartitionEnabled": true,"DatePartitionSequence": "YYYYMMDD","DatePartitionDelimiter": "SLASH"}'
使用 Amazon S3 作为目标时分区源的并行加载Amazon DMS
您可以为 Amazon S3 目标配置分区数据源的parallel 满负载。这种方法缩短了将分区数据从支持的源数据库引擎迁移到 S3 目标的加载时间。为了缩短分区源数据的加载时间,您可以创建 S3 目标子文件夹,映射到源数据库中每个表的分区。这些分区绑定子文件夹Amazon DMS允许运行parallel 进程来填充目标上的每个子文件夹。
要配置 S3 目标的parallel 满负载,S3 支持表映射table-settings
规则的三parallel-load
种规则类型:
partitions-auto
partitions-list
ranges
有关这些并行负载规则类型的更多信息,请参阅表和集合设置规则和操作。
对于partitions-auto
和partitions-list
规则类型,Amazon DMS使用源端点中的每个分区名称来标识目标子文件夹结构,如下所示。
bucket_name
/bucket_folder
/database_schema_name
/table_name
/partition_name
/LOADseq_num
.csv
在这里,在 S3 目标上迁移和存储数据的
子文件夹路径包括一个与同名源分区相对应的附加子文件夹。然后,该partition_name
子文件夹存储一个或多个partition_name
LOAD
文件,其中包含从指定源分区迁移的数据。这里seq_num
.csv
是.csv 文件名上的序列号后缀,例如名为的.csv 文件seq_num
00000001
中LOAD00000001.csv
。
但是,某些数据库引擎,例如 MongoDB 和 DocumentDB,没有分区的概念。对于这些数据库引擎,Amazon DMS将正在运行的源分段索引作为前缀添加到目标.csv 文件名中,如下所示。
.../
database_schema_name
/table_name
/SEGMENT1_LOAD00000001.csv .../database_schema_name
/table_name
/SEGMENT1_LOAD00000002.csv ... .../database_schema_name
/table_name
/SEGMENT2_LOAD00000009.csv .../database_schema_name
/table_name
/SEGMENT3_LOAD0000000A.csv
在这里,文件SEGMENT1_LOAD00000001.csv
和SEGMENT1_LOAD00000002.csv
使用相同的运行源分段索引前缀命名SEGMENT1
。之所以这样命名,是因为这两个.csv 文件的迁移源数据与同一个正在运行的源区段索引相关联。另一方面,存储在每个目标SEGMENT2_LOAD00000009.csv
和SEGMENT3_LOAD0000000A.csv
文件中的迁移数据与不同的正在运行的源分段索引相关联。每个文件的文件名都以其正在运行的分段索引的名称为前缀,以SEGMENT2
及SEGMENT3
。
对于ranges
并行加载类型,您可以使用table-settings
规则的和boundaries
设置来定义列名columns
和列值。使用这些规则,您可以指定与分段名称对应的分区,如下所示。
"parallel-load": { "type": "ranges", "columns": [ "region", "sale" ], "boundaries": [ [ "NORTH", "1000" ], [ "WEST", "3000" ] ], "segment-names": [ "custom_segment1", "custom_segment2", "custom_segment3" ] }
在这里,该segment-names
设置定义了三个分区的名称,以便在 S3 目标上parallel 迁移数据。迁移的数据按顺序并行加载并存储在分区子文件夹下的.csv 文件中,如下所示。
.../
database_schema_name
/table_name
/custom_segment1/LOAD[00000001...].csv .../database_schema_name
/table_name
/custom_segment2/LOAD[00000001...].csv .../database_schema_name
/table_name
/custom_segment3/LOAD[00000001...].csv
在这里,将一系列.csv 文件Amazon DMS存储在三个分区子文件夹中。每个分区子文件夹中的.csv 文件从迁移所有LOAD00000001.csv
数据开始逐渐命名。
在某些情况下,您可能无法使用segment-names
设置为ranges
并行加载类型明确命名分区子文件夹。在这种情况下,Amazon DMS应用在其
子文件夹下创建每个系列的.csv 文件的默认设置。在这里,为每个系列的.csv 文件的文件名加上正在运行的源分段索引的名称作为Amazon DMS前缀,如下所示。table_name
.../
database_schema_name
/table_name
/SEGMENT1_LOAD[00000001...].csv .../database_schema_name
/table_name
/SEGMENT2_LOAD[00000001...].csv .../database_schema_name
/table_name
/SEGMENT3_LOAD[00000001...].csv ... .../database_schema_name
/table_name
/SEGMENTZ
_LOAD[00000001...].csv
使用 Amazon S3 作为目标时的终端节点设置Amazon DMS
您可以使用终端节点设置来配置 Amazon S3 目标数据库,类似于使用额外的连接属性。在创建目标终端节点时,您可以使用Amazon DMS控制台或使用中的create-endpoint
命令使用--s3-settings '{"
JSON 语法指定设置。Amazon CLIEndpointSetting"
:
"value"
, ...
}'
下表显示了您可以将 Amazon S3 用作目标的终端节点设置。
选项 | 描述 |
---|---|
CsvNullValue |
一个可选参数,用于指定 Amazon DMS 如何处理 null 值。在处理 null 值时,您可以使用此参数在写入目标时将用户定义的字符串作为 null 传递。例如,当目标列不可为 null 时,您可以使用此选项来区分空字符串值和 null 值。因此,如果您将此参数值设置为空字符串(” 或 “),Amazon DMS会将空字符串视为 nul 值而不是 默认值: 有效值:任何有效字符串 示例: |
AddColumnName |
一个可选参数,当设置为 您不能将此参数与 默认值: 有效值: 示例: |
BucketFolder |
一个可选参数,用于在 S3 桶中设置文件夹的名称。如果提供此参数,则在路径 示例: |
BucketName |
在其中将 S3 目标对象创建为 .csv 或 .parquet 文件的 S3 存储桶的名称。 示例: |
CannedAclForObjects |
该值允许 Amazon DMS 为在 S3 存储桶中创建为 .csv 或 .parquet 文件的对象指定预定义(标准)访问控制列表。有关 Amazon S3 标准 ACL 的更多信息,请参阅《Amazon S3 开发人员指南》中的标准 ACL。 默认值:NONE 该属性的有效值为:NONE、PRIVATE、PUBLIC_READ、PUBLIC_READ_WRITE、AUTHENTICATED_READ、AWS_EXEC_READ、BUCKET_OWNER_READ、BUCKET_OWNER_FULL_CONTROL。 示例: |
CdcInsertsOnly |
一个在更改数据捕获 (CDC) 加载期间仅将 INSERT 操作写入逗号分隔值 (.csv) 或列式存储 (.parquet) 输出文件的可选参数。默认情况下( 仅对于 .csv 格式,记录这些 INSERTS 的方式取决于 默认值: 有效值: 示例: |
CdcInsertsAndUpdates |
启用更改数据捕获 (CDC) 加载以将 INSERT 和 UPDATE 操作写入 .csv 或 .parquet(列式存储)输出文件。默认设置为 仅对于 .csv 文件格式,记录这些 INSERT 和 UPDATE 的方式取决于 有关这些参数的协作方式的更多信息,请参阅指示迁移的 S3 数据中的源数据库操作。 对于同一终端节点, 默认值: 有效值: 示例: |
|
指定 CDC 文件的文件夹路径。对于 S3 来源,如果任务捕获更改数据,则该设置是必需的,否则,该设置是可选的。如果设置 您不能将此参数与 类型:字符串 例如,如果您指定 如果您指定相同的路径 Amazon DMS 版本 3.4.2 及更高版本支持此设置。 捕获事务顺序中的数据更改时,无论目标上的 S DataFormat 3 设置值如何,DMS 始终将行更改存储在.csv 文件中。DMS 不使用.parquet 文件按事务顺序保存数据更改。 |
|
将文件输出到 Amazon S3 的最大间隔长度条件(以秒为单位)。 默认值:60 秒 指定并 |
|
将文件输出到 Amazon S3 所要的最小文件大小条件(以千字节为单位)。 默认值:32000 KB 指定并 |
|
如果设置为 您不能将此参数与 类型:布尔值 捕获事务顺序中的数据更改时,无论目标上的 S DataFormat 3 设置值如何,DMS 始终将行更改存储在.csv 文件中。DMS 不使用.parquet 文件按事务顺序保存数据更改。 Amazon DMS版本 3.4.2 及更高版本支持此设置。 |
IncludeOpForFullLoad |
一个在完全加载期间仅将 INSERT 操作写入逗号分隔值 (.csv) 输出文件的可选参数。 对于完全加载,只能插入记录。默认情况下,( 此参数与 默认值: 有效值: 示例: |
CompressionType |
一个可选参数,当设置为 默认值: 有效值: 示例: |
CsvDelimiter |
.csv 源文件中用于分隔列的分隔符。默认为逗号 (,)。 示例: |
CsvRowDelimiter |
.csv 源文件中用于分隔行的分隔符。默认值为换行符 (\n)。 示例: |
|
一个值,指定在完整加载期间,迁移到 S3 目标时所要创建的任意 .csv 文件的最大大小(以 KB 为单位)。 默认值:1048576 KB (1 GB) 有效值:1—104.8576 示例: |
Rfc4180 |
一个可选参数,用于设置行为以符合 RFC,仅适用于使用 .csv 文件格式迁移到 Amazon S3 的数据。当此值设置为 默认值: 有效值: 示例: |
EncryptionMode |
要用于加密复制到 S3 的 .csv 或 .parquet 对象文件的服务器端加密模式。有效值为 您也可以使用 CLI 默认值: 有效值: 示例: |
ServerSideEncryptionKmsKeyId |
如果您设置为 示例: |
DataFormat |
Amazon DMS 用于创建 S3 对象的文件的输出格式。对于 Amazon S3 目标,Amazon DMS支持.csv 或.parquet 文件。.parquet 文件具有一种二进制列式存储格式,并具有有效的压缩选项和更快的查询性能。有关 .parquet 文件的更多信息,请参阅 https://parquet.apache.org/ 默认值: 有效值: 示例: |
EncodingType |
Parquet 编码类型。编码类型选项包括:
默认值: 有效值: 示例: |
DictPageSizeLimit |
.parquet 文件中的词典页面允许的最大大小(以字节为单位)。如果词典页面超出此值,则该页面使用纯编码。 默认值:1024000 (1 MB) 有效值:任何有效的整数值 示例: |
RowGroupLength |
.parquet 文件的一个行组中的行数。 默认值:10024 (10 KB) 有效值:任何有效整数 示例: |
DataPageSize |
.parquet 文件中的数据页面允许的最大大小(以字节为单位)。 默认值:1024000 (1 MB) 有效值:任何有效整数 示例: |
ParquetVersion |
.parquet 文件格式的版本。 默认值: 有效值: 示例: |
EnableStatistics |
设置为 默认值: 有效值: 示例: |
TimestampColumnName |
一个可选参数,用于在 S3 目标终端节点数据中包含时间戳列。 Amazon DMS当您设置 对于完全加载,此时间戳列的每个行均包含一个时间戳,用于指示 DMS 将数据从源传输到目标的时间。 对于 CDC 加载,时间戳列的每个行均包含该行在源数据库中的提交的时间戳。 此时间戳列值的字符串格式为
示例: |
UseTaskStartTimeForFullLoadTimestamp |
设置为时 当 默认值: 有效值: 示例:
|
ParquetTimestampInMillisecond |
一个可选参数,指定写入 .parquet 格式 S3 对象文件的任意 将此属性设置为 目前,Amazon Athena 和 Amazon Glue 只能处理以毫秒为精度的
默认值: 有效值: 示例: |
在您的 Amazon S3 目标上使用数据加密、Parquet 文件和 CDC
您可以使用 S3 目标终端节点设置来配置以下内容:
-
用于加密您的 S3 目标对象的自定义 KMS 密钥。
-
Parquet 文件作为 S3 目标对象的存储格式。
-
更改数据捕获(CDC),包括 S3 目标上的事务顺序。
用于数据加密的 Amazon KMS 密钥设置
以下示例说明如何配置自定义 KMS 密钥以加密 S3 目标对象。要开始,您可以运行以下 create-endpoint
CLI 命令。
aws dms create-endpoint --endpoint-identifier s3-target-endpoint --engine-name s3 --endpoint-type target --s3-settings '{"ServiceAccessRoleArn": "
your-service-access-ARN
", "CsvRowDelimiter": "\n", "CsvDelimiter": ",", "BucketFolder": "your-bucket-folder
", "BucketName": "your-bucket-name
", "EncryptionMode": "SSE_KMS", "ServerSideEncryptionKmsKeyId": "arn:aws:kms:us-east-1:111122223333:key/72abb6fb-1e49-4ac1-9aed-c803dfcc0480"}'
此处,--s3-settings
选项所指定的 JSON 对象定义了两个参数。一个是带值 SSE_KMS
的 EncryptionMode
参数。另一个是带值 arn:aws:kms:us-east-1:111122223333:key/72abb6fb-1e49-4ac1-9aed-c803dfcc0480
的 ServerSideEncryptionKmsKeyId
参数。此值是自定义 KMS 密钥的 Amazon 资源名称 (ARN)。对于 S3 目标,您还可以指定其他设置。这些设置标识服务器访问角色,为默认 CSV 对象存储格式提供分隔符,并提供存储桶位置和名称来存储 S3 目标对象。
默认情况下,使用 S3 服务器端加密进行 S3 数据加密。对于上一示例中的 S3 目标,这也等同于指定其终端节点设置,如以下示例所示。
aws dms create-endpoint --endpoint-identifier s3-target-endpoint --engine-name s3 --endpoint-type target --s3-settings '{"ServiceAccessRoleArn": "
your-service-access-ARN
", "CsvRowDelimiter": "\n", "CsvDelimiter": ",", "BucketFolder": "your-bucket-folder
", "BucketName": "your-bucket-name
", "EncryptionMode": "SSE_S3"}'
有关使用 S3 服务器端加密的更多信息,请参阅使用服务器端加密保护数据。
您也可以使用 CLImodify-endpoint
命令将现有终端节点的EncryptionMode
参数值从更改SSE_KMS
为SSE_S3
。但是您无法将EncryptionMode
值从更改SSE_S3
为SSE_KMS
。
使用 .parquet 文件存储 S3 目标对象的设置
用于创建 S3 目标对象的默认格式为 .csv 文件。以下示例显示用于指定 .parquet 文件作为创建 S3 目标对象的格式的某些终端节点设置。您可以指定带所有默认值的 .parquet 文件格式,如以下示例所示。
aws dms create-endpoint --endpoint-identifier s3-target-endpoint --engine-name s3 --endpoint-type target --s3-settings '{"ServiceAccessRoleArn": "
your-service-access-ARN
", "DataFormat": "parquet"}'
在这里,DataFormat
参数设置为 parquet
以启用带所有 S3 默认值的格式。这些默认值包括一个词典编码 ("EncodingType: "rle-dictionary"
),该编码使用位压缩和运行长度编码的组合以更高效地存储重复值。
您可以为选项添加默认值之外的其他设置,如以下示例所示。
aws dms create-endpoint --endpoint-identifier s3-target-endpoint --engine-name s3 --endpoint-type target --s3-settings '{"ServiceAccessRoleArn": "your-service-access-ARN", "BucketFolder": "your-bucket-folder", "BucketName": "your-bucket-name", "CompressionType": "GZIP", "DataFormat": "parquet", "EncodingType: "plain-dictionary", "DictPageSizeLimit": 3,072,000, "EnableStatistics": false }'
在这里,除了几个标准 S3 存储桶选项的参数和 DataFormat
参数外,将设置以下额外的 .parquet 文件参数:
-
EncodingType
— 设置为字典编码 (plain-dictionary
),该编码将每列中遇到的值存储在字典页面的每列区块中。 -
DictPageSizeLimit
— 将最大字典页面大小设置为 3 MB。 -
EnableStatistics
— 禁用允许收集有关 Parquet 文件页和行组的统计信息的默认设置。
捕获数据更改(CDC),包括 S3 目标上的事务顺序
默认情况下,Amazon DMS运行 CDC 任务时,它将记录在源数据库(或数据库)中的所有行更改存储在每个表的一个或多个文件中。包含同一表更改的每组文件都位于与该表关联的单个目标目录中。 Amazon DMS创建的目标目录与迁移到 Amazon S3 目标终端节点的数据库表一样多。这些文件存储在 S3 目标上的这些目录中,不考虑事务顺序。有关文件命名规则、数据内容和格式的更多信息,请参阅将 Amazon S3 用作目标Amazon Database Migration Service。
要以同时捕获事务顺序的方式捕获源数据库更改,您可以指定 S3 终端节点设置,这些设置Amazon DMS将所有数据库表的行更改存储在根据事务大小创建的一个或多个.csv 文件中。这些.csv 事务文件包含每个事务中涉及的所有表的事务顺序按事务顺序列出的所有行更改。这些事务文件一起存在于您在 S3 目标上指定的单个事务目录中。在每个事务文件中,每次更改的事务操作以及数据库和源表的标识存储为行数据的一部分,如下所示。
operation
,table_name
,database_schema_name
,field_value
,...
这里,
是对已更改行的事务操作,operation
是更改该行的数据库表的名称,table_name
是该表所在的数据库架构的名称,并且database_schema_name
是指定该行数据的一个或多个字段值中的第一个。field_value
以下事务文件示例显示了涉及两个表的一个或多个事务的更改行。
I,Names_03cdcad11a,rdsTempsdb,13,Daniel U,Names_03cdcad11a,rdsTempsdb,23,Kathy D,Names_03cdcad11a,rdsTempsdb,13,Cathy I,Names_6d152ce62d,rdsTempsdb,15,Jane I,Names_6d152ce62d,rdsTempsdb,24,Chris I,Names_03cdcad11a,rdsTempsdb,16,Mike
在这里,每行的事务操作由第一列中的I
(插入)、U
(更新)或D
(删除)指示。表名是第二列的值(例如Names_03cdcad11a
)。数据库架构的名称是第三列的值(例如rdsTempsdb
)。其余列由您自己的行数据填充(例如,13,Daniel
)。
此外,根据以下命Amazon DMS名惯例,使用时间戳命名它在 Amazon S3 目标上创建的事务文件。
CDC_TXN-
timestamp
.csv
这里
是创建事务文件的时间,如以下示例所示。timestamp
CDC_TXN-20201117153046033.csv
文件名中的这个时间戳可确保在事务文件在其事务目录中列出事务文件时,事务文件是按事务顺序创建和列出的。
捕获事务顺序中的数据更改时,Amazon DMS无论目标上的 SDataFormat
3 设置值如何,都将行更改存储在.csv 文件中。 Amazon DMS不使用.parquet 文件按事务顺序保存数据更改。
要控制在数据复制任务期间写入 Amazon S3 目标的频率,您可以配置CdcMaxBatchInterval
和CdcMinFileSize
设置。这可以在分析数据时提高性能,而无需进行任何额外的开销操作。有关更多信息,请参阅 使用 Amazon S3 作为目标时的终端节点设置Amazon DMS
告知Amazon DMS按事务顺序存储所有行更改
-
将目标上
PreserveTransactions
的 S3 设置设置设置为true
。 -
将目标上的
CdcPath
S3 设置设置为Amazon DMS要存储.csv 事务文件的相对文件夹路径。Amazon DMS在默认 S3 目标存储段和工作目录下创建此路径,或者在您使用目标上的和
BucketFolder
S3 设置指定的存储段BucketName
和存储段文件夹下创建此路径。
指示迁移的 S3 数据中的源数据库操作
当 Amazon DMS 将记录迁移到 S3 目标时,它会在每条迁移的记录中创建一个额外字段。此额外字段指示应用于源数据库中的记录的操作。如何Amazon DMS创建和设置第一个字段取决于迁移任务类型和includeOpForFullLoad
cdcInsertsOnly
、和的设置cdcInsertsAndUpdates
。
如果为满负载true
,includeOpForFullLoad
则Amazon DMS始终在每条.csv 记录中创建一个额外的第一个字段。该字段包含字母 I (INSERT),指示该行已插入源数据库中。对于 CDC 加载时cdcInsertsOnly
false
(默认),Amazon DMS还始终在每条.csv 或.parquet 记录中创建一个额外的第一个字段。此字段包含字母 I (INSERT)、U (UPDATE) 或 D (DELETE),指示是否在源数据库中插入、更新或删除行。
在下表中,您可以看到includeOpForFullLoad
和cdcInsertsOnly
属性的设置如何共同影响迁移记录的设置。
使用这些参数设置 | DMS 按如下方式为.csv 和.parquet 输出设置目标记录 | ||
---|---|---|---|
includeOpForFullLoad | cdcInsertsOnly | 对于完全加载 | 对于 CDC 加载 |
true |
true |
添加的第一个字段值设置为 I |
添加的第一个字段值设置为 I |
false |
false |
无添加的字段 | 添加的第一个字段值设置为 I 、U 或 D |
false |
true |
无添加的字段 | 无添加的字段 |
true |
false |
添加的第一个字段值设置为 I |
添加的第一个字段值设置为 I 、U 或 D |
在将 includeOpForFullLoad
和 cdcInsertsOnly
设置为同一值时,将根据控制当前迁移类型的记录设置的属性来设置目标记录。该属性为 includeOpForFullLoad
(对于完全加载)和 cdcInsertsOnly
(对于 CDC 加载)。
在将 includeOpForFullLoad
和 cdcInsertsOnly
设置为不同的值时,Amazon DMS 使 CDC 加载和完全加载的目标记录设置保持一致。它通过使 CDC 加载的记录设置符合 includeOpForFullLoad
指定的任何早期完全加载的记录设置来实现此目的。
换句话说,假设将完全加载设置为添加第一个字段来指示插入的记录。在此情况下,将以下 CDC 加载设置为添加第一个字段,该字段指示在源中适当插入、更新或删除的记录。相反,假设将完全加载设置为不 添加第一个字段来指示插入的记录。在此情况下,CDC 加载也将设置为不向每条记录添加第一个字段,而不管其在源中的相应记录操作如何。
同样,DMS 如何创建和设置附加的第一个字段取决于 includeOpForFullLoad
和 cdcInsertsAndUpdates
的设置。在下表中,您可以了解 includeOpForFullLoad
和 cdcInsertsAndUpdates
属性的设置如何协作以影响采用此格式的迁移记录的设置。
使用这些参数设置 | DMS 将目标记录设置为 .csv 输出的后续记录 | ||
---|---|---|---|
includeOpForFullLoad | cdcInsertsAnd更新 | 对于完全加载 | 对于 CDC 加载 |
true |
true |
添加的第一个字段值设置为 I |
添加的第一个字段值设置为 I 或 U |
false |
false |
无添加的字段 | 添加的第一个字段值设置为 I 、U 或 D |
false |
true |
无添加的字段 | 添加的第一个字段值设置为 I 或 U |
true |
false |
添加的第一个字段值设置为 I |
添加的第一个字段值设置为 I 、U 或 D |
S3 Parquet 的目标数据类型
下表显示了使用时支持的 Parquet 目标数据类型Amazon DMS以及来自Amazon DMS数据类型的默认映射。
有关 Amazon DMS 数据类型的其他信息,请参阅DatAmazon abase Migration Service 数据类型。
Amazon DMS 数据类型 |
S3 实木复合地板数据类型 |
---|---|
BYTES |
BINARY |
DATE |
DATE32 |
TIME |
TIME32 |
DATETIME |
TIMESTAMP |
INT1 |
INT8 |
INT2 |
INT16 |
INT4 |
INT32 |
INT8 |
INT64 |
NUMERIC |
DECIMAL |
REAL4 |
FLOAT |
REAL8 |
DOUBLE |
STRING |
STRING |
UINT1 |
UINT8 |
UINT2 |
UINT16 |
UINT4 |
UINT32 |
UINT8 |
UINT64 |
WSTRING |
STRING |
BLOB |
BINARY |
NCLOB |
STRING |
CLOB |
STRING |
BOOLEAN |
BOOL |