将 Amazon Redshift 数据库作为目标Amazon Database Migration Service - Amazon Database Migration Service
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

将 Amazon Redshift 数据库作为目标Amazon Database Migration Service

您可以使用将数据迁移到 Amazon Redshift 数据库Amazon Database Migration Service. Amazon Redshift 是一种完全托管的 PB 级云中数据仓库服务。使用 Amazon Redshift 数据库作为目标,您可以从所有其他支持的源数据库迁移数据。

Amazon Redshift 集群必须位于同一个Amazon账户和相同Amazon区域作为复制实例。

在数据库迁移到 Amazon Redshift 期间,Amazon DMS首先将数据移动到 Amazon S3 存储桶。如果文件位于 Amazon S3 存储桶中,Amazon DMS然后,将其传输到 Amazon Redshift 数据仓库中相应的表。Amazon DMS在同一个中创建 S3 存储桶Amazon区域为 Amazon Redshift 数据库。这些区域有:Amazon DMS复制实例必须位于同一个中。Amazon地区。

如果您将Amazon CLI或 DMS API 将数据迁移到 Amazon Redshift,请设置Amazon Identity and Access Management允许 S3 访问的 (IAM) 角色。有关创建此 IAM 角色的更多信息,请参阅 创建 IAM 角色以用于 Amazon CLI 和 Amazon DMS API

Amazon Redshift 终端节点为以下过程提供了完全的自动化:

  • 架构生成和数据类型映射

  • 源数据库表的完全加载

  • 增量加载对源表进行的更改

  • 应用对源表的数据定义语言 (DDL) 的架构更改

  • 完全加载和更改数据捕获 (CDC) 流程之间的同步。

Amazon Database Migration Service 支持完全加载和更改处理操作。Amazon DMS 从源数据库读取数据并创建一系列逗号分隔值 (.csv) 文件。对于完全负载操作,Amazon DMS为每个表创建文件。Amazon DMS然后, 将各个表的表文件复制到 Amazon S3 中的单独文件夹。在将文件上载到 Amazon S3 时,Amazon DMS发送 copy 命令,将文件中的数据复制到 Amazon Redshift。对于变更处理操作,Amazon DMS将净更改复制到 .csv 文件。Amazon DMS接下来,将净更改文件上传到 Amazon S3 并将数据复制到 Amazon Redshift。

有关将 Amazon Redshift 作为目标的其他详细信息Amazon DMS,请参阅以下部分:

将 Amazon Redshift 数据库作为目标的先决条件Amazon Database Migration Service

以下列表描述了将 Amazon Redshift 作为数据迁移目标时所需的先决条件:

  • 使用Amazon要启动 Amazon Redshift 集群的管理控制台。注意有关您的基本信息Amazon账户和 Amazon Redshift 群集,例如密码、用户名和数据库名称。在创建 Amazon Redshift 目标终端节点时,您需要这些值。

  • Amazon Redshift 集群必须位于同一个Amazon账户也一样Amazon区域作为复制实例。

  • 这些区域有:Amazon DMS复制实例需要与您群集所使用的 Amazon Redshift 终端节点(主机名和端口)的网络连接。

  • Amazon DMS使用 Amazon S3 存储桶将数据传输到 Amazon Redshift 数据库。对于 Amazon DMS 创建存储桶,控制台使用 IAM 角色 dms-access-for-endpoint。如果您将Amazon CLI或 DMS API 来创建数据库迁移并将 Amazon Redshift 作为目标数据库,您必须创建此 IAM 角色。有关创建此角色的更多信息,请参阅 创建 IAM 角色以用于 Amazon CLI 和 Amazon DMS API

  • Amazon DMS将 BLOB、CLOB 和 NCLOB 转换为目标 Amazon Redshift 实例上的 VARCHAR。Amazon Redshift 不支持大于 64 KB 的 VARCHAR 数据类型,因此您无法在 Amazon Redshift 上存储传统 LOB。

  • 设置目标元数据任务设置BatchApplyEnabled (已启用)true为了Amazon DMS以供在 CDC 期间处理对 Amazon Redshift 目标表的更改。同时需要源表和目标表的主键。如果没有主键,则会逐条语句应用更改。这会导致目标延迟并影响集群提交队列,从而对 CDC 期间的任务性能产生负面影响。

将 Redshift 作为目标时所需的权限

使用 GRANT 命令为用户或用户组定义访问权限。权限包括各种访问选项,例如读取表和视图中的数据、写入数据和创建表的能力。有关将 GRANT 与 Amazon Redshift 结合使用的更多信息,请参阅授予中的Amazon Redshift 数据库开发人员指南.

以下是为 Amazon Redshift 表和视图授予对表、数据库、架构、函数、过程或语言级权限的特定权限的语法。

GRANT { { SELECT | INSERT | UPDATE | DELETE | REFERENCES } [,...] | ALL [ PRIVILEGES ] } ON { [ TABLE ] table_name [, ...] | ALL TABLES IN SCHEMA schema_name [, ...] } TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT { { CREATE | TEMPORARY | TEMP } [,...] | ALL [ PRIVILEGES ] } ON DATABASE db_name [, ...] TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT { { CREATE | USAGE } [,...] | ALL [ PRIVILEGES ] } ON SCHEMA schema_name [, ...] TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT { EXECUTE | ALL [ PRIVILEGES ] } ON { FUNCTION function_name ( [ [ argname ] argtype [, ...] ] ) [, ...] | ALL FUNCTIONS IN SCHEMA schema_name [, ...] } TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT { EXECUTE | ALL [ PRIVILEGES ] } ON { PROCEDURE procedure_name ( [ [ argname ] argtype [, ...] ] ) [, ...] | ALL PROCEDURES IN SCHEMA schema_name [, ...] } TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT USAGE ON LANGUAGE language_name [, ...] TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...]

以下是 Amazon Redshift 表和视图上的列级权限的语法。

GRANT { { SELECT | UPDATE } ( column_name [, ...] ) [, ...] | ALL [ PRIVILEGES ] ( column_name [,...] ) } ON { [ TABLE ] table_name [, ...] } TO { username | GROUP group_name | PUBLIC } [, ...]

以下是授予具有指定角色的用户和组的 ASSUMEROLE 权限的语法。

GRANT ASSUMEROLE ON { 'iam_role' [, ...] | ALL } TO { username | GROUP group_name | PUBLIC } [, ...] FOR { ALL | COPY | UNLOAD } [, ...]

将 Amazon Redshift 作为目标的限制Amazon Database Migration Service

将 Amazon Redshift 数据库作为目标时,存在以下限制:

  • 不要为用作 Amazon Redshift 目标中间存储的 S3 存储桶启用版本控制。如果您需要 S3 版本控制,请使用生命周期策略主动删除旧版本。否则,您可能会因 S3 而遇到终端节点测试连接失败list-object调用超时。要为 S3 存储桶创建生命周期策略,请参阅管理存储生命周期. 要删除 S3 对象的版本,请参阅从启用了版本控制的存储桶中删除对象版本.

  • 不支持以下 DDL:

    ALTER TABLE table name MODIFY COLUMN column name data type;
  • Amazon DMS 无法迁移或复制对名称以下划线 (_) 开头的架构所做的更改。如果您具有名称以下划线开头的架构,请使用映射转换重命名目标上的架构。

  • Amazon Redshift 不支持大于 64 KB 的 VARCHAR。传统数据库中的 LOB 不能存储在 Amazon Redshift 中。

  • 当任意主键列名称使用了保留字时,不支持对具有多列主键的表应用 DELETE 语句。转到这里以供查看 Amazon Redshift 保留词的列表。

  • 如果源系统对源表的主键执行 UPDATE 操作,则可能会遇到性能问题。对目标应用更改时会出现这些性能问题。这是因为 UPDATE(和 DELETE)操作取决于主键值来标识目标行。如果更新源表的主键,则任务日志将包含如下消息:

    Update on table 1 changes PK to a PK that was previously updated in the same bulk update.
  • 为 Redshift 集群配置终端节点时,DMS 不支持自定义 DNS 名称,您需要使用亚马逊提供的 DNS 名称。由于 Amazon Redshift 集群必须位于同一个Amazon账户和区域作为复制实例,如果您使用自定义 DNS 终端节点,验证将失败。

  • Amazon Redshift 的默认空闲会话超时时间为 4 小时。如果 DMS 复制任务中没有任何活动,Redshift 会在 4 小时后断开会话的连接。错误可能是由于 DMS 无法连接且可能需要重新启动而导致。作为解决办法,为 DMS 复制用户设置会话超时限制大于 4 小时。或者,请参阅的描述更改用户中的Amazon Redshift 数据库开发人员指南.

将 Amazon Redshift 数据库配置为的目标Amazon Database Migration Service

Amazon Database Migration Service必须配置为使用 Amazon Redshift 实例。下表描述了可用于 Amazon Redshift 终端节点的配置属性。

属性

说明

server

您正在使用的 Amazon Redshift 集群的名称。

port (远程调试端口)

Amazon Redshift 的端口号。默认值是 5439。

username

已注册用户的 Amazon Redshift 用户名。

password

在 username 属性中指定的用户的密码。

数据库

您所使用的 Amazon Redshift 数据仓库 (服务) 的名称。

如果要添加额外的连接字符串属性到 Amazon Redshift 终端节点,您可以指定maxFileSizefileTransferUploadStreams属性。有关这些属性的更多信息,请参阅将 Amazon Redshift 作为目标时的额外连接属性Amazon DMS

将 Amazon Redshift 作为目标的增强型 VPC 路由Amazon Database Migration Service

如果您将增强型 VPC 路由用于 Amazon Redshift 目标,则 Amazon Redshift 群集与数据存储库之间的所有 COPY 流量将流经您的 VPC。由于增强型 VPC 路由 会影响 Amazon Redshift 访问其他资源的方式,因此如果您未正确配置 VPC,COPY 命令可能会失败。

Amazon DMS使用 COPY 命令将 S3 中的数据移动到 Amazon Redshift 群集,因此可能会受此行为的影响。

Amazon DMS 将数据加载到 Amazon Redshift 目标时采用的步骤如下:

  1. Amazon DMS 将数据从源复制到复制服务器上的 .csv 文件。

  2. Amazon DMS使用Amazon开发工具包,以供将 .csv 文件复制到您账户上的 S3 存储桶中。

  3. Amazon DMS接下来,在 Amazon Redshift 中使用 COPY 命令将数据从 S3 中的 .csv 文件复制到 Amazon Redshift 中相应表。

如果未启用增强型 VPC 路由,则 Amazon Redshift 会通过 Internet 路由流量,包括至Amazon网络。如果未启用该功能,您不必配置网络路径。如果启用此功能,您必须专门创建您群集的 VPC 与数据源之间的网络路径。有关所需配置的更多信息,请参阅增强型 VPC 路由在 Amazon Redshift 文档中。

创建和使用Amazon KMS用于加密 Amazon Redshift 目标数据的密钥

您可以先加密推送到 Amazon S3 的目标数据,然后再将其复制到 Amazon Redshift。为此,您可以创建并使用自定义 Amazon KMS 密钥。您可以在创建 Amazon Redshift 目标终端节点时使用所创建的密钥通过下列机制之一加密目标数据:

要使用 KMS 密钥加密 Amazon Redshift 目标数据,您需要Amazon Identity and Access Management有权访问 Amazon Redshift 数据的 (IAM) 角色。随后,在附加到您创建的加密密钥的策略(密钥策略)中访问此 IAM 角色。您可以通过创建以下项来在 IAM 控制台中来执行此操作:

  • 具有 IAM 角色Amazon-托管策略。

  • 一个带引用此角色的密钥策略的 KMS 密钥。

以下过程介绍了如何执行此操作。

使用所需的创建 IAM 角色Amazon-托管策略

  1. 通过以下网址打开 IAM 控制台:https://console.aws.amazon.com/iam/

  2. 在导航窗格中,选择 Roles(角色)Roles (角色) 页面随即打开。

  3. 请选择 Create role(创建角色)。Create role (创建角色) 页面随即打开。

  4. Amazon服务选择作为可信实体,选择DMS作为使用角色的服务。

  5. 选择 Next:。Permissions (下一步:权限)。此时将显示 Attach permissions policies (附加权限策略) 页面。

  6. 查找并选择 AmazonDMSRedshiftS3Role 策略。

  7. 选择 Next:。标签。此时将显示 Add tags (添加标签) 页面。您可以在此处添加所需的任何标签。

  8. 选择 Next:。审核并查看您的结果。

  9. 如果这些设置是您所需的,请输入角色的名称(例如,DMS-Redshift-endpoint-access-role)及任何其他描述,然后选择 Create role (创建角色)Roles (角色) 页面随即打开,并显示一条指示您的角色已创建的消息。

现在,您已创建新角色来访问 Amazon Redshift 资源以使用指定名称(例如)进行加密。DMS-Redshift-endpoint-access-role.

创建Amazon KMS一个带引用 IAM 角色的密钥策略的加密密钥

注意

有关如何将 Amazon DMS 与 Amazon KMS 加密密钥结合使用的更多信息,请参阅 设置加密密钥和指定 Amazon KMS 权限

  1. 登录到 Amazon Web Services Management Console,然后通过以下网址打开 Amazon Key Management Service (Amazon KMS) 控制台:https://console.aws.amazon.com/kms

  2. 更改Amazon Web Services 区域,请使用页面右上角的区域选择器。

  3. 在导航窗格中,选择客户托管密钥

  4. 选择 Create key。此时会打开 Configure key (配置密钥) 页面。

  5. 对于 Key type (密钥类型),选择 Symmetric (对称)

    注意

    创建此密钥时,您只能创建对称密钥,因为所有Amazon诸如 Amazon Redshift 之类的服务仅适用于对称加密密钥。

  6. 选择 Advanced Options。对于 Key material origin (密钥材料来源),请确保选择了 KMS,然后选择 Next (下一步)。此时会打开 Add labels (添加标签) 页面。

  7. 对于 Create alias and description (创建别名和描述),输入密钥的别名(例如 DMS-Redshift-endpoint-encryption-key)和任何其他描述。

  8. 对于 Tags (标签),添加要用于帮助标识密钥并跟踪其使用情况的任何标签,然后选择 Next (下一步)。此时会打开 Define key administrative permissions (定义密钥管理权限) 页面,其中显示了可供选择的用户和角色的列表。

  9. 添加要管理密钥的用户和角色。确保这些用户和角色具有管理密钥所需的权限。

  10. 对于 Key deletion (密钥删除),选择密钥管理员是否能删除密钥,然后选择 Next (下一步)。此时会打开 Define Key Usage Permissions (定义密钥使用权限) 页面,其中显示了可供选择的用户和角色的附加列表。

  11. 适用于这个账户中,选择要对 Amazon Redshift 目标执行加密操作的可用用户。此外,请选择您之前在中创建的角色角色例如,启用对 Amazon Redshift 目标对象进行加密的访问权限DMS-Redshift-endpoint-access-role)。

  12. 如果要添加未列出的其他账户,使其具有这一相同访问权限,请使用其他Amazon账户,选择添加另一个Amazon帐户,然后选择下一步. 此时会打开 Review and edit key policy (查看和编辑密钥策略) 页面,其中显示了密钥策略的 JSON,您可以通过键入到现有 JSON 来查看和编辑该策略。在此处,您可以看到密钥策略引用您在上一步中选择的角色和用户(例如,AdminUser1)的位置。您还可以查看不同的委托人(用户和角色)所允许的不同的密钥操作,如以下示例所示。

    { "Id": "key-consolepolicy-3", "Version": "2012-10-17", "Statement": [ { "Sid": "Enable IAM User Permissions", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:root" ] }, "Action": "kms:*", "Resource": "*" }, { "Sid": "Allow access for Key Administrators", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:role/Admin" ] }, "Action": [ "kms:Create*", "kms:Describe*", "kms:Enable*", "kms:List*", "kms:Put*", "kms:Update*", "kms:Revoke*", "kms:Disable*", "kms:Get*", "kms:Delete*", "kms:TagResource", "kms:UntagResource", "kms:ScheduleKeyDeletion", "kms:CancelKeyDeletion" ], "Resource": "*" }, { "Sid": "Allow use of the key", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:role/DMS-Redshift-endpoint-access-role", "arn:aws:iam::111122223333:role/Admin", "arn:aws:iam::111122223333:role/User1" ] }, "Action": [ "kms:Encrypt", "kms:Decrypt", "kms:ReEncrypt*", "kms:GenerateDataKey*", "kms:DescribeKey" ], "Resource": "*" }, { "Sid": "Allow attachment of persistent resources", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:role/DMS-Redshift-endpoint-access-role", "arn:aws:iam::111122223333:role/Admin", "arn:aws:iam::111122223333:role/User1" ] }, "Action": [ "kms:CreateGrant", "kms:ListGrants", "kms:RevokeGrant" ], "Resource": "*", "Condition": { "Bool": { "kms:GrantIsForAWSResource": true } } } ]
  13. 选择 Finish (结束)。这些区域有:加密密钥页面随即打开,并显示一条指示您的Amazon KMS key已创建。

现在,您已创建一个具有指定别名(例如,DMS-Redshift-endpoint-encryption-key)的新 KMS 密钥。此密钥启用Amazon DMS加密 Amazon Redshift 目标数据。

将 Amazon Redshift 作为目标时的终端节点设置Amazon DMS

您可以使用终端节点设置来配置 Amazon Redshift 目标,这与使用额外连接属性类似。您可以在 Amazon CLI 中使用 create-endpoint 命令创建目标终端节点时通过 --redshift-settings "json-settings" 选项指定这些设置。此处,json-settings 是包含用于指定设置的参数的 JSON 对象。此外,您还可以指定一个包含相同的 .json 文件json-settings例如,对象,如下所示:--redshift-settings file:///your-file-path/my_redshift_settings.json. 在这里,my_redshift_settings.json是包含相同的 .json 文件的名称json-settings object.

终端节点设置的参数名称与同等额外连接属性的名称相同,但终端节点设置的参数名称的开头为大写形式。此外,并非使用额外连接属性的所有 Amazon Redshift 目标终端节点设置都可使用--redshift-settings的选项create-endpoint命令。有关中可用设置的更多信息Amazon CLI调用create-endpoint,请参阅创建终端节点中的Amazon CLI命令参考为了Amazon DMS. 有关这些设置的更多信息,请参阅将 Amazon Redshift 作为目标时的额外连接属性Amazon DMS中的等效额外连接属性。

您可以使用 Amazon Redshift 目标终端节点设置来配置以下内容:

  • 自定义 Amazon KMS 数据加密密钥。随后,您可以使用此密钥来加密推送到 Amazon S3 的数据,然后再将其复制到 Amazon Redshift。

  • 自定义 S3 存储桶,作为迁移到 Amazon Redshift 的数据的中间存储。

用于数据加密的 KMS 密钥设置

以下示例说明如何配置自定义 KMS 密钥以加密推送到 S3 的数据。要开始,您可以使用 Amazon CLI 进行以下 create-endpoint 调用。

aws dms create-endpoint --endpoint-identifier redshift-target-endpoint --endpoint-type target --engine-name redshift --username your-username --password your-password --server-name your-server-name --port 5439 --database-name your-db-name --redshift-settings '{"EncryptionMode": "SSE_KMS", "ServerSideEncryptionKmsKeyId": "arn:aws:kms:us-east-1:111122223333:key/24c3c5a1-f34a-4519-a85b-2debbef226d1"}'

此处,--redshift-settings 选项所指定的 JSON 对象定义了两个参数。一个是带值 SSE_KMSEncryptionMode 参数。另一个是带值 arn:aws:kms:us-east-1:111122223333:key/24c3c5a1-f34a-4519-a85b-2debbef226d1ServerSideEncryptionKmsKeyId 参数。此值是自定义 KMS 密钥的 Amazon 资源名称 (ARN)。

默认情况下,使用 S3 服务器端加密进行 S3 数据加密。对于上一示例中的 Amazon Redshift 目标,这也等同于指定其终端节点设置,如以下示例所示。

aws dms create-endpoint --endpoint-identifier redshift-target-endpoint --endpoint-type target --engine-name redshift --username your-username --password your-password --server-name your-server-name --port 5439 --database-name your-db-name --redshift-settings '{"EncryptionMode": "SSE_S3"}'

有关使用 S3 服务器端加密的更多信息,请参阅使用服务器端加密保护数据中的亚马逊简单存储服务用户指南。

注意

您也可以使用 CLImodify-endpoint更改的值的命令EncryptionMode的现有终端节点的参数SSE_KMSSSE_S3. 但是你无法更改EncryptionMode价值来自SSE_S3SSE_KMS.

Amazon S3 存储桶设置

将数据迁移到 Amazon Redshift 目标终端节点时,Amazon DMS在将迁移的数据复制到 Amazon Redshift 之前,先使用默认 Amazon S3 存储桶作为中间任务存储。例如,显示 Amazon Redshift 使用Amazon KMS数据加密密钥使用此默认 S3 存储桶(请参阅用于数据加密的 KMS 密钥设置)。

您可以通过在 Amazon CLI create-endpoint 命令的 --redshift-settings 选项值中包含以下参数来为此中间存储指定自定义 S3 存储桶:

  • BucketName— 您指定的 S3 存储桶名称的字符串。

  • BucketFolder—(可选)代表指定 S3 存储桶中存储文件夹名称的字符串。

  • ServiceAccessRoleArn— 允许对 S3 存储桶进行管理访问的 IAM 角色的 ARN。通常,您将根据 AmazonDMSRedshiftS3Role 策略创建此角色。有关示例,请参阅创建具有所需项的 IAM 角色的过程Amazon-托管策略创建和使用Amazon KMS用于加密 Amazon Redshift 目标数据的密钥.

    注意

    如果您使用 create-endpoint 命令的 --service-access-role-arn 选项指定其他 IAM 角色的 ARN,则此 IAM 角色选项优先。

以下示例显示了如何在以下内容中使用这些参数来指定自定义 Amazon S3 存储桶。create-endpoint使用调用Amazon CLI.

aws dms create-endpoint --endpoint-identifier redshift-target-endpoint --endpoint-type target --engine-name redshift --username your-username --password your-password --server-name your-server-name --port 5439 --database-name your-db-name --redshift-settings '{"ServiceAccessRoleArn": "your-service-access-ARN", "BucketName": "your-bucket-name", "BucketFolder": "your-bucket-folder-name"}'

将 Amazon Redshift 作为目标时的额外连接属性Amazon DMS

您可以使用额外的连接属性配置 Amazon Redshift 目标。在创建目标终端节点时,您可以指定这些设置。如果您具有多个连接属性设置,请用分号将它们彼此分开,并且不需要额外的空格。

下表显示了在目标为 Amazon Redshift 时的可用额外连接属性。

名称 说明

maxFileSize

指定用于将数据传输到 Amazon Redshift 的任何 .csv 文件的最大大小 (以 KB 为单位)。

默认值:32768 KB(32 MB)

有效值:1-048,576

示例:maxFileSize=512

fileTransferUploadStreams

指定用于上传单个文件的线程的数目。

默认值:10

有效值:1-64

示例:fileTransferUploadStreams=20

acceptanydate

指定是否接受任何日期格式,包括无效和日期格式,如 0000-00-00。布尔值。

默认值:false

有效值:true | false

示例:acceptanydate=true

dateformat

指定日期格式。默认情况下,这是一个字符串输入且为空。默认格式为 YYYY-MM-DD,但您可以将其更改为 DD-MM-YYYY。如果您的日期或时间值使用不同的格式,请结合使用 auto 参数与 dateformat 参数。auto 参数将识别使用 dateformat 字符串时不受支持的一些格式。auto 关键字区分大小写。

默认值:empty

有效值:'dateformat_string' 或 auto

示例:dateformat=auto

timeformat

指定时间格式。默认情况下,这是一个字符串输入且为空。auto 参数将识别使用 timeformat 字符串时不受支持的一些格式。如果您的日期和时间值使用各不相同的格式,请结合使用 auto 参数与 timeformat 参数。

默认值:10

有效值:'timeformat_string' | 'auto' | 'epochsecs' | 'epochmillisecs'

示例:timeformat=auto

emptyasnull

指定 Amazon DMS 是否应迁移作为 null 的空 CHAR 和 VARCHAR 字段。值 true 可将空的 CHAR 和 VARCHAR 字段设置为 null。

默认值:false

有效值:true | false

示例:emptyasnull=true

truncateColumns

将列中的数据截断为合适的字符数以符合列规范。仅适用于具有 VARCHAR 或 CHAR 数据类型的列以及大小为 4 MB 或以下的行。

默认值:false

有效值:true | false

例如:

truncateColumns=true;

removeQuotes

删除传入数据中的字符串周围的引号。将保留引号中的所有字符(包括分隔符)。有关删除 Amazon Redshift 目标引号的更多信息,请参阅Amazon Redshift 数据库开发人员指南.

默认值:false

有效值:true | false

例如:

removeQuotes=true;

trimBlanks

删除 VARCHAR 字符串的尾部空格字符。此参数仅适用于具有 VARCHAR 数据类型的列。

默认值:false

有效值:true | false

例如:

trimBlanks=false;

encryptionMode 指定在将数据复制到 Amazon Redshift 之前要用于将数据推送到 S3 的服务器端加密模式。有效值为 SSE_S3(S3 服务器端加密)或 SSE_KMS(KMS 密钥加密)。如果您选择 SSE_KMS,请将 serverSideEncryptionKmsKeyId 参数设置为要用于加密的 KMS 密钥的 Amazon 资源名称 (ARN)。
注意

您也可以使用 CLImodify-endpoint更改的值的命令encryptionMode来自的现有终端节点的属性SSE_KMSSSE_S3. 但是你无法更改encryptionMode价值来自SSE_S3SSE_KMS.

默认值:SSE_S3

有效值:SSE_S3SSE_KMS

示例:encryptionMode=SSE_S3;

serverSideEncryptionKmsKeyId 如果你设置encryptionModeSSE_KMS,将此参数设置为 KMS 密钥的 ARN。您可以通过在为您的账户创建的 Amazon KMS 密钥列表中选择密钥别名来查找此 ARN。在创建密钥时,您必须将特定策略和角色与密钥关联。有关更多信息,请参阅 创建和使用Amazon KMS用于加密 Amazon Redshift 目标数据的密钥

例如:

serverSideEncryptionKmsKeyId=arn:aws:kms:us-east-1:111122223333:key/24c3c5a1-f34a-4519-a85b-2debbef226d1;

enableParallelBatchInMemoryCSVFiles 将此属性设置为false使用ParallelLoadThreads任务设置。这些区域有:enableParallelBatchInMemoryCSVFiles属性通过将 DMS 写入磁盘而不是内存来提高大型多线程满负载任务的性能。原定设置值为 true
compressCsvFile 使用此属性可以压缩迁移期间发送到 Redshift 目标的数据。默认值是 。true,默认情况下,压缩已启用。

Amazon Redshift 的多线程任务设置

您可以使用多线程任务设置来提高 Amazon Redshift 目标终端节点的完全加载和更改数据捕获 (CDC) 任务的性能。使您能够指定并发线程的数量以及要存储在缓冲区中的记录数。

Amazon Redshift 的多线程完全加载任务设置

要提高满负载性能,您可以使用以下内容ParallelLoad*任务设置:

  • ParallelLoadThreads— 指定 DMS 在满载期间使用的并发线程数,以便将数据记录推送到 Amazon Redshift 目标终端节点。默认值为零 (0),最大值为 32。

    您可以使用enableParallelBatchInMemoryCSVFiles属性设置为false使用ParallelLoadThreads任务设置。该属性通过将 DMS 写入磁盘而不是内存来提高大型多线程满负载任务的性能。原定设置值为 true

  • ParallelLoadBufferSize— 在 Redshift 目标中使用并行加载线程时,指定最大数据记录请求量。默认值为 100,最大值为 1,000。我们建议您使用此选项ParallelLoad线程 > 1(大于 1)。

注意

Support 使用ParallelLoad*在 “满载到 Amazon Redshift” 目标终端节点期间的任务设置可在Amazon DMS版本 3.4.5 及更高版本。

这些区域有:ReplaceInvalidChars不支持在更改数据捕获 (CDC) 期间或在启用并行加载的完全负载迁移任务期间使用 Redshift 端点设置。当未启用并行加载时,它支持 FULL LOAD 迁移。有关更多信息,请参阅RedshiftSettings中的Amazon Database Migration ServiceAPI 参考

Amazon Redshift 的多线程 CDC 任务设置

要提高 CDC 性能,您可以使用以下过程:ParallelApply*任务设置:

  • ParallelApplyThreads— 指定并行线程的数目Amazon DMS在 CDC 加载期间使用来将数据记录推送到 Amazon Redshift 目标终端节点。默认值为零 (0),最大值为 32。

  • ParallelApplyBufferSize— 指定对 Redshift 目标使用并行应用线程时的最大数据记录请求量。默认值为 100,最大值为 1,000。我们建议在以下时间使用此选项ParallelApply线程 > 1(大于 1)。

    为了获得 Redshift 作为目标的最大好处,我们建议ParallelApplyBufferSize至少是数量的两倍(两倍或更多)ParallelApplyThreads.

注意

Support 使用ParallelApply*在中提供 CDC 至 Amazon Redshift 目标终端节点期间的任务设置Amazon DMS版本 3.4.3 及更高版本。

应用的并行度取决于总数之间的相关性批处理大小最大文件大小用于传输数据。使用带有 Redshift 目标的多线程 CDC 任务设置时,当批量大小相对于最大文件大小较大时,将获得好处。例如,您可以使用以下终端节点和任务设置的组合来调整以获得最佳性能。

// Redshift endpoint setting MaxFileSize=250000; // Task settings BatchApplyEnabled=true; BatchSplitSize =8000; BatchApplyTimeoutMax =1800; BatchApplyTimeoutMin =1800; ParallelApplyThreads=32; ParallelApplyBufferSize=100;

使用上述设置,具有繁重事务性工作负载的客户可以在 1800 秒内填满 8000 MB 的批处理缓冲区,利用 32 个并行线程和最大文件大小为 250 MB。

有关更多信息,请参阅 更改处理优化设置

注意

在持续复制到 Redshift 群集期间运行的 DMS 查询可以与正在运行的其他应用程序查询共享同一 WLM(工作负载管理)队列。因此,请考虑正确配置 WLM 属性,以在向 Redshift 目标持续复制期间影响性能。例如,如果其他并行 ETL 查询正在运行,则 DMS 运行速度较慢,性能提升也会丢失。

Amazon Redshift 的目标数据类型

Amazon DMS 的 Amazon Redshift 终端节点支持大多数 Amazon Redshift 数据类型。下表显示了使用 Amazon DMS 时支持的 Amazon Redshift 目标数据类型以及来自 Amazon DMS 数据类型的默认映射。

有关 Amazon DMS 数据类型的其他信息,请参阅的数据类型AmazonDatabase Migration Service

Amazon DMS 数据类型

Amazon Redshift 数据类型

BOOLEAN

BOOL

BYTES

VARCHAR (Length)

DATE

DATE

TIME

VARCHAR(20)

DATETIME

如果小数位数 => 0 且 <= 6,具体取决于 Redshift 目标列类型,请使用以下内容之一:

TIMESTAMP (s)

TIMESTAMPTZ — 如果源时间戳包含区域偏移量(例如在 SQL Server 或 Oracle 中),它会在插入/更新时转换为 UTC。如果它不包含偏移量,那么在 UTC 中已经考虑了时间。

如果小数位数 => 7 且 <= 9,请使用:

VARCHAR(37)

INT1

INT2

INT2

INT2

INT4

INT4

INT8

INT8

NUMERIC

如果小数位数 => 0 且 <= 37,请使用:

NUMERIC (p,s)

如果小数位数 => 38 且 <= 127,请使用:

VARCHAR (Length)

REAL4

FLOAT4

REAL8

FLOAT8

STRING

如果长度为 1-65535,请使用 VARCHAR(以字节为单位的长度)

如果长度为 65,536—2147483647,请使用 VARCHAR (65535)

UINT1

INT2

UINT2

INT2

UINT4

INT4

UINT8

NUMERIC (20,0)

WSTRING

如果长度为 1-65535,请使用 NVARCHAR(以字节为单位的长度)

如果长度为 65,536—2147483647,请使用 NVARCHAR (65535)

BLOB

VARCHAR (最大 LOB 大小 *2)

最大 LOB 大小不能超过 31 KB。Amazon Redshift 不支持大于 64 KB 的 VARCHAR。

NCLOB

NVARCHAR (最大 LOB 大小)

最大 LOB 大小不能超过 63 KB。Amazon Redshift 不支持大于 64 KB 的 VARCHAR。

CLOB

VARCHAR (最大 LOB 大小)

最大 LOB 大小不能超过 63 KB。Amazon Redshift 不支持大于 64 KB 的 VARCHAR。