将 Amazon Redshift 数据库作为的目标Amazon Database Migration Service - Amazon Database Migration Service
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

将 Amazon Redshift 数据库作为的目标Amazon Database Migration Service

您可以使用将数据迁移到 Amazon Redshift 数据库。Amazon Database Migration Service. Amazon Redshift 是一种完全托管的 PB 级云中数据仓库服务。使用 Amazon Redshift 数据库作为目标,您可以从所有其他支持的源数据库迁移数据。

Amazon Redshift 集群必须位于同一个Amazon帐户和相同Amazon区域作为复制实例。

在数据库迁移到 Amazon Redshift 期间,Amazon DMS首先将数据移动到 Amazon S3 存储桶。当文件驻留在 Amazon S3 存储桶中时,Amazon DMS然后将其传输到 Amazon Redshift 数据仓库中正确的表。Amazon DMS在同一位置创建 S3 存储桶Amazon将区域作为 Amazon Redshift 数据库。这些区域有:Amazon DMS复制实例必须位于同一个Amazon区域。

如果您将Amazon CLI或 DMS API 将数据迁移到 Amazon Redshift,请设置Amazon Identity and Access Management(IAM) 角色以允许 S3 访问。有关创建此 IAM 角色的更多信息,请参阅 创建 IAM 角色以用于 Amazon CLI 和 Amazon DMS API

Amazon Redshift 终端节点为以下过程提供了完全的自动化:

  • 架构生成和数据类型映射

  • 源数据库表的完全加载

  • 增量加载对源表进行的更改

  • 应用对源表的数据定义语言 (DDL) 的架构更改

  • 完全加载和更改数据捕获 (CDC) 流程之间的同步。

Amazon Database Migration Service 支持完全加载和更改处理操作。Amazon DMS 从源数据库读取数据并创建一系列逗号分隔值 (.csv) 文件。对于完全负载操作,Amazon DMS为每个表创建文件。Amazon DMS然后, 将各个表的表文件复制到 Amazon S3 中的单独文件夹。当文件上传到 Amazon S3,Amazon DMS发送 copy 命令,将文件中的数据复制到 Amazon Redshift。对于变更处理操作,Amazon DMS会将净更改复制到 .csv 文件。Amazon DMS接下来,将净更改文件上传到 Amazon S3 并将数据复制到 Amazon Redshift。

有关将 Amazon Redshift 作为目标的其他详细信息Amazon DMS,请参阅以下章节:

将 Amazon Redshift 数据库作为目标的先决条件Amazon Database Migration Service

以下列表描述了将 Amazon Redshift 作为数据迁移目标时所需的先决条件:

  • 使用Amazon管理控制台启动 Amazon Redshift 集群。请注意有关您的Amazon帐户和 Amazon Redshift 集群(例如密码、用户名和数据库名称)。在创建 Amazon Redshift 目标终端节点时,您需要这些值。

  • Amazon Redshift 集群必须位于同一个Amazon帐户和相同的Amazon区域作为复制实例。

  • 这些区域有:Amazon DMS复制实例需要与您群集所使用的 Amazon Redshift 终端节点 (主机名和端口) 的网络连接。

  • Amazon DMS使用 Amazon S3 存储桶将数据传输到 Amazon Redshift 数据库。对于 Amazon DMS 创建存储桶,控制台使用 IAM 角色 dms-access-for-endpoint。如果您将Amazon CLI或 DMS API 创建数据库迁移并将 Amazon Redshift 作为目标数据库,您必须创建此 IAM 角色。有关创建此角色的更多信息,请参阅 创建 IAM 角色以用于 Amazon CLI 和 Amazon DMS API

  • Amazon DMS将 BLOB、CLOB 和 NCLOB 转换为目标 Amazon Redshift 实例上的 VARCHAR。Amazon Redshift 不支持大于 64 KB 的 VARCHAR 数据类型,因此您无法在 Amazon Redshift 上存储传统 LOB。

  • 将目标元数据任务设置 BatchApplyEnabled 设为 true,以供 Amazon DMS 在 CDC 期间处理对 Amazon Redshift 目标表的更改。同时需要源表和目标表的主键。如果没有主键,则会逐条语句应用更改。这会导致目标延迟并影响集群提交队列,从而对 CDC 期间的任务性能产生负面影响。

将 Redshift 作为目标时需要的权限

使用 GRANT 命令为用户或用户组定义访问权限。权限包括各种访问选项,例如读取表和视图中的数据、写入数据和创建表的能力。有关将 GRANT 与 Amazon Redshift 结合使用的更多信息,请参阅授予中的Amazon Redshift 数据库开发人员指南.

下列语法用于授予对 Amazon Redshift 表和视图的特定权限,以便授予对表、数据库、架构、函数、过程或语言级别权限。

GRANT { { SELECT | INSERT | UPDATE | DELETE | REFERENCES } [,...] | ALL [ PRIVILEGES ] } ON { [ TABLE ] table_name [, ...] | ALL TABLES IN SCHEMA schema_name [, ...] } TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT { { CREATE | TEMPORARY | TEMP } [,...] | ALL [ PRIVILEGES ] } ON DATABASE db_name [, ...] TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT { { CREATE | USAGE } [,...] | ALL [ PRIVILEGES ] } ON SCHEMA schema_name [, ...] TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT { EXECUTE | ALL [ PRIVILEGES ] } ON { FUNCTION function_name ( [ [ argname ] argtype [, ...] ] ) [, ...] | ALL FUNCTIONS IN SCHEMA schema_name [, ...] } TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT { EXECUTE | ALL [ PRIVILEGES ] } ON { PROCEDURE procedure_name ( [ [ argname ] argtype [, ...] ] ) [, ...] | ALL PROCEDURES IN SCHEMA schema_name [, ...] } TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT USAGE ON LANGUAGE language_name [, ...] TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...]

以下是 Amazon Redshift 表和视图上列级权限的语法。

GRANT { { SELECT | UPDATE } ( column_name [, ...] ) [, ...] | ALL [ PRIVILEGES ] ( column_name [,...] ) } ON { [ TABLE ] table_name [, ...] } TO { username | GROUP group_name | PUBLIC } [, ...]

以下是授予具有指定角色的用户和组的 ASSEROLE 权限的语法。

GRANT ASSUMEROLE ON { 'iam_role' [, ...] | ALL } TO { username | GROUP group_name | PUBLIC } [, ...] FOR { ALL | COPY | UNLOAD } [, ...]

将 Amazon Redshift 作为目标的限制Amazon Database Migration Service

使用 Amazon Redshift 数据库作为目标时,Amazon DMS不支持以下内容:

  • 不支持以下 DDL:

    ALTER TABLE table name MODIFY COLUMN column name data type;
  • Amazon DMS 无法迁移或复制对名称以下划线 (_) 开头的架构所做的更改。如果您具有名称以下划线开头的架构,请使用映射转换重命名目标上的架构。

  • Amazon Redshift 不支持大于 64 KB 的 VARCHAR。传统数据库中的 LOB 不能存储在 Amazon Redshift 中。

  • 当任意主键列名称使用了保留字时,不支持对具有多列主键的表应用 DELETE 语句。转到此处查看 Amazon Redshift 保留词的列表。

  • 如果源系统对源表的主键执行 UPDATE 操作,则可能会遇到性能问题。对目标应用更改时,会出现这些性能问题。这是因为 UPDATE(和 DELETE)操作依赖于主键值来标识目标行。如果您更新源表的主键,则任务日志将包含如下所示的消息:

    Update on table 1 changes PK to a PK that was previously updated in the same bulk update.
  • 为 Redshift 群集配置终端节点时,DMS 不支持自定义 DNS 名称,您需要使用亚马逊提供的 DNS 名称。由于 Amazon Redshift 集群必须位于同一Amazon帐户和区域作为复制实例,则如果您使用自定义 DNS 终端节点,则验证将失败。

将 Amazon Redshift 数据库配置为的目标Amazon Database Migration Service

Amazon Database Migration Service必须配置为使用 Amazon Redshift 实例。下表描述了可用于 Amazon Redshift 终端节点的配置属性。

属性

描述

server

您使用的 Amazon Redshift 集群的名称。

port (远程调试端口)

Amazon Redshift 的端口号。默认值是 5439。

username

已注册用户的 Amazon Redshift 用户名。

密码

在 username 属性中指定的用户的密码。

database

您所使用的 Amazon Redshift 数据仓库(服务)的名称。

如果您要添加额外的连接字符串属性到 Amazon Redshift 终端节点,您可以指定maxFileSizefileTransferUploadStreams属性。有关这些属性的更多信息,请参阅将 Amazon Redshift 作为目标时的额外连接属性Amazon DMS

将 Amazon Redshift 作为目标时使用增强型 VPC 路由Amazon Database Migration Service

如果您将增强型 VPC 路由用于 Amazon Redshift 目标,则 Amazon Redshift 集群和数据存储库之间的所有 COPY 流量将流经您的 VPC。由于增强型 VPC 路由 会影响 Amazon Redshift 访问其他资源的方式,因此如果您未正确配置 VPC,COPY 命令可能会失败。

Amazon DMS使用 COPY 命令将 S3 中的数据移动到 Amazon Redshift 集群,因此可能会受此行为的影响。

Amazon DMS 将数据加载到 Amazon Redshift 目标时采用的步骤如下:

  1. Amazon DMS 将数据从源复制到复制服务器上的 .csv 文件。

  2. Amazon DMS使用AmazonSDK 将 .csv 文件复制到您账户上的 S3 存储桶。

  3. Amazon DMS然后,在 Amazon Redshift 中使用 COPY 命令将数据从 S3 中的 .csv 文件复制到 Amazon Redshift 中相应的表。

如果未启用增强型 VPC 路由,则 Amazon Redshift 会通过 Internet 路由流量,包括至Amazon网络。如果未启用该功能,您不必配置网络路径。如果启用此功能,您必须专门创建您群集的 VPC 与数据源之间的网络路径。有关所需配置的更多信息,请参阅增强型 VPC 路由在 Amazon Redshift 文档中。

创建和使用Amazon KMS密钥来加密 Amazon Redshift 目标数据

您可以先加密推送到 Amazon S3 的目标数据,然后再将其复制到 Amazon Redshift。为此,您可以创建并使用自定义 Amazon KMS 密钥。在创建 Amazon Redshift 目标终端节点时,您可以使用所创建的密钥通过下列机制之一加密目标数据:

要使用 KMS 密钥加密 Amazon Redshift 目标数据,您需要一个Amazon Identity and Access Management(IAM) 角色,该角色有权访问 Amazon Redshift 数据。随后,在附加到您创建的加密密钥的策略(密钥策略)中访问此 IAM 角色。您可以通过创建以下项来在 IAM 控制台中来执行此操作:

  • 带有Amazon托管策略。

  • 一个带引用此角色的密钥策略的 KMS 密钥。

以下过程介绍了如何执行此操作。

创建 IAM 角色Amazon托管策略

  1. 通过以下网址打开 IAM 控制台:https://console.aws.amazon.com/iam/

  2. 在导航窗格中,选择 RolesRoles (角色) 页面随即打开。

  3. 选择 Create role(创建角色)。Create role (创建角色) 页面随即打开。

  4. Amazon服务选择作为可信实体,请选择DMS作为服务以使用角色。

  5. 选择 Next:。Permissions (下一步:权限)。此时将显示 Attach permissions policies (附加权限策略) 页面。

  6. 查找并选择 AmazonDMSRedshiftS3Role 策略。

  7. 选择 Next:。标签。此时将显示 Add tags (添加标签) 页面。您可以在此处添加所需的任何标签。

  8. 选择 Next:。审核并检查您的结果。

  9. 如果这些设置是您所需的,请输入角色的名称(例如,DMS-Redshift-endpoint-access-role)及任何其他描述,然后选择 Create role (创建角色)Roles (角色) 页面随即打开,并显示一条指示您的角色已创建的消息。

现在,您已创建新角色来访问 Amazon Redshift 资源,以便使用指定名称(例如)进行加密。DMS-Redshift-endpoint-access-role.

创建带引用您的 IAM 角色的密钥策略的 KMS 密钥

注意

有关如何将 Amazon DMS 与 Amazon KMS 加密密钥结合使用的更多信息,请参阅 设置加密密钥和指定 Amazon KMS 权限

  1. 登录到 Amazon Web Services Management Console,然后通过以下网址打开 Amazon Key Management Service (Amazon KMS) 控制台:https://console.aws.amazon.com/kms

  2. 要更改 Amazon 区域,请使用页面右上角的 Region selector (区域选择器)。

  3. 在导航窗格中,选择客户托管密钥

  4. 选择 Create key。此时会打开 Configure key (配置密钥) 页面。

  5. 对于 Key type (密钥类型),选择 Symmetric (对称)

    注意

    创建此密钥时,您只能创建对称键,因为所有Amazon服务(例如 Amazon Redshift)仅适用于对称加密密钥。

  6. 选择 Advanced Options。对于 Key material origin (密钥材料来源),请确保选择了 KMS,然后选择 Next (下一步)。此时会打开 Add labels (添加标签) 页面。

  7. 对于 Create alias and description (创建别名和描述),输入密钥的别名(例如 DMS-Redshift-endpoint-encryption-key)和任何其他描述。

  8. 对于 Tags (标签),添加要用于帮助标识密钥并跟踪其使用情况的任何标签,然后选择 Next (下一步)。此时会打开 Define key administrative permissions (定义密钥管理权限) 页面,其中显示了可供选择的用户和角色的列表。

  9. 添加要管理密钥的用户和角色。确保这些用户和角色具有管理密钥所需的权限。

  10. 对于 Key deletion (密钥删除),选择密钥管理员是否能删除密钥,然后选择 Next (下一步)。此时会打开 Define Key Usage Permissions (定义密钥使用权限) 页面,其中显示了可供选择的用户和角色的附加列表。

  11. 适用于此账户中,选择您希望在 Amazon Redshift 目标上执行加密操作的可用用户。另外,请选择您之前在角色来启用加密 Amazon Redshift 目标对象的访问权限,例如DMS-Redshift-endpoint-access-role)。

  12. 如果要添加未列出的其他账户,使其具有这一相同访问权限,对于其他Amazon账户中,选择添加其他Amazon账户,然后选择。下一步. 此时会打开 Review and edit key policy (查看和编辑密钥策略) 页面,其中显示了密钥策略的 JSON,您可以通过键入到现有 JSON 来查看和编辑该策略。在此处,您可以看到密钥策略引用您在上一步中选择的角色和用户(例如,AdminUser1)的位置。您还可以查看不同的委托人(用户和角色)所允许的不同的密钥操作,如以下示例所示。

    { "Id": "key-consolepolicy-3", "Version": "2012-10-17", "Statement": [ { "Sid": "Enable IAM User Permissions", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:root" ] }, "Action": "kms:*", "Resource": "*" }, { "Sid": "Allow access for Key Administrators", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:role/Admin" ] }, "Action": [ "kms:Create*", "kms:Describe*", "kms:Enable*", "kms:List*", "kms:Put*", "kms:Update*", "kms:Revoke*", "kms:Disable*", "kms:Get*", "kms:Delete*", "kms:TagResource", "kms:UntagResource", "kms:ScheduleKeyDeletion", "kms:CancelKeyDeletion" ], "Resource": "*" }, { "Sid": "Allow use of the key", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:role/DMS-Redshift-endpoint-access-role", "arn:aws:iam::111122223333:role/Admin", "arn:aws:iam::111122223333:role/User1" ] }, "Action": [ "kms:Encrypt", "kms:Decrypt", "kms:ReEncrypt*", "kms:GenerateDataKey*", "kms:DescribeKey" ], "Resource": "*" }, { "Sid": "Allow attachment of persistent resources", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:role/DMS-Redshift-endpoint-access-role", "arn:aws:iam::111122223333:role/Admin", "arn:aws:iam::111122223333:role/User1" ] }, "Action": [ "kms:CreateGrant", "kms:ListGrants", "kms:RevokeGrant" ], "Resource": "*", "Condition": { "Bool": { "kms:GrantIsForAWSResource": true } } } ]
  13. 选择 Finish。这些区域有:加密钥页面随即打开,并显示一条指示您的Amazon KMS key已创建。

现在,您已创建一个具有指定别名(例如,DMS-Redshift-endpoint-encryption-key)的新 KMS 密钥。此密钥启用Amazon DMS来加密 Amazon Redshift 目标数据。

将 Amazon Redshift 作为目标时的终端节点设置Amazon DMS

您可以使用终端节点设置来配置 Amazon Redshift 目标,这与使用额外连接属性类似。您可以在 Amazon CLI 中使用 create-endpoint 命令创建目标终端节点时通过 --redshift-settings "json-settings" 选项指定这些设置。此处,json-settings 是包含用于指定设置的参数的 JSON 对象。您还可以指定一个 .json 文件,其中包含相同的json-settings对象,例如,如下所示:--redshift-settings file:///your-file-path/my_redshift_settings.json. 此处,my_redshift_settings.json是一个 .json 文件的名称,该文件包含相同json-settings object.

终端节点设置的参数名称与同等额外连接属性的名称相同,但终端节点设置的参数名称的开头为大写形式。此外,并非使用额外连接属性的所有 Amazon Redshift 目标终端节点设置都可使用--redshift-settings选项create-endpoint命令。有关在Amazon CLI调用create-endpoint,请参阅创建终端节点中的Amazon CLI命令参考对于 来说为Amazon DMS. 有关这些设置的更多信息,请参阅将 Amazon Redshift 作为目标时的额外连接属性Amazon DMS中的等效额外连接属性。

您可以使用 Amazon Redshift 目标终端节点设置来配置以下内容:

  • 自定义 Amazon KMS 数据加密密钥。随后,您可以使用此密钥来加密推送到 Amazon S3 的数据,然后再将其复制到 Amazon Redshift。

  • 自定义 S3 存储桶,作为迁移到 Amazon Redshift 的数据的中间存储。

用于数据加密的 KMS 密钥设置

以下示例说明如何配置自定义 KMS 密钥以加密推送到 S3 的数据。要开始,您可以使用 Amazon CLI 进行以下 create-endpoint 调用。

aws dms create-endpoint --endpoint-identifier redshift-target-endpoint --endpoint-type target --engine-name redshift --username your-username --password your-password --server-name your-server-name --port 5439 --database-name your-db-name --redshift-settings '{"EncryptionMode": "SSE_KMS", "ServerSideEncryptionKmsKeyId": "arn:aws:kms:us-east-1:111122223333:key/24c3c5a1-f34a-4519-a85b-2debbef226d1"}'

此处,--redshift-settings 选项所指定的 JSON 对象定义了两个参数。一个是带值 SSE_KMSEncryptionMode 参数。另一个是带值 arn:aws:kms:us-east-1:111122223333:key/24c3c5a1-f34a-4519-a85b-2debbef226d1ServerSideEncryptionKmsKeyId 参数。此值是自定义 KMS 密钥的 Amazon 资源名称 (ARN)。

默认情况下,使用 S3 服务器端加密进行 S3 数据加密。对于上一示例中的 Amazon Redshift 目标,这也等同于指定其终端节点设置,如以下示例所示。

aws dms create-endpoint --endpoint-identifier redshift-target-endpoint --endpoint-type target --engine-name redshift --username your-username --password your-password --server-name your-server-name --port 5439 --database-name your-db-name --redshift-settings '{"EncryptionMode": "SSE_S3"}'

有关使用 S3 服务器端加密的更多信息,请参阅使用服务器端加密保护数据中的Amazon Simple Storage Service 开发人员指南。

注意

您也可以使用 CLImodify-endpoint命令更改的值EncryptionMode参数的现有终端节点SSE_KMSSSE_S3. 但是你不能更改EncryptionMode值自SSE_S3SSE_KMS.

Amazon S3 存储桶设置

当您将数据迁移到 Amazon Redshift 目标终端节点时,Amazon DMS在将迁移的数据复制到 Amazon Redshift 之前,使用默认 Amazon S3 存储桶作为中间任务存储。例如,显示的使用创建 Amazon Redshift 目标终端节点的示例Amazon KMS数据加密密钥使用此默认 S3 存储桶(请参阅用于数据加密的 KMS 密钥设置)。

您可以通过在 Amazon CLI create-endpoint 命令的 --redshift-settings 选项值中包含以下参数来为此中间存储指定自定义 S3 存储桶:

  • BucketName— 指定作为 S3 存储桶名称的字符串。

  • BucketFolder—(可选)可以指定 S3 存储桶中存储文件夹名称的字符串。

  • ServiceAccessRoleArn— 允许对 S3 存储桶进行管理访问的 IAM 角色的 ARN。通常,您将根据 AmazonDMSRedshiftS3Role 策略创建此角色。有关示例,请参阅创建带所需Amazon中的托管策略创建和使用Amazon KMS密钥来加密 Amazon Redshift 目标数据.

    注意

    如果您使用 create-endpoint 命令的 --service-access-role-arn 选项指定其他 IAM 角色的 ARN,则此 IAM 角色选项优先。

以下示例显示了如何使用这些参数在以下中指定自定义 Amazon S3 存储桶。create-endpoint使用调用Amazon CLI.

aws dms create-endpoint --endpoint-identifier redshift-target-endpoint --endpoint-type target --engine-name redshift --username your-username --password your-password --server-name your-server-name --port 5439 --database-name your-db-name --redshift-settings '{"ServiceAccessRoleArn": "your-service-access-ARN", "BucketName": "your-bucket-name", "BucketFolder": "your-bucket-folder-name"}'

将 Amazon Redshift 作为目标时的额外连接属性Amazon DMS

您可以使用额外的连接属性配置 Amazon Redshift 目标。在创建目标终端节点时,您可以指定这些设置。如果您具有多个连接属性设置,请用分号将它们彼此分开,并且不需要额外的空格。

下表显示了在目标为 Amazon Redshift 时的可用额外连接属性。

名称 描述

maxFileSize

指定用于将数据传输到 Amazon Redshift 的任何 .csv 文件的最大小(以 KB 为单位)。

默认值:32768 千 B(32 毫巴)

有效值:1—1,048,576

示例:maxFileSize=512

fileTransferUploadStreams

指定用于上传单个文件的线程的数目。

默认值:10

有效值:1—64

示例:fileTransferUploadStreams=20

acceptanydate

指定是否接受任何日期格式,包括无效和日期格式,如 0000-00-00。布尔值。

默认值:false

有效值:true | false

示例:acceptanydate=true

dateformat

指定日期格式。默认情况下,这是一个字符串输入且为空。默认格式为 YYYY-MM-DD,但您可以将其更改为 DD-MM-YYYY。如果您的日期或时间值使用不同的格式,请结合使用 auto 参数与 dateformat 参数。auto 参数将识别使用 dateformat 字符串时不受支持的一些格式。auto 关键字区分大小写。

默认值:empty

有效值:'dateformat_string' 或 auto

示例:dateformat=auto

timeformat

指定时间格式。默认情况下,这是一个字符串输入且为空。auto 参数将识别使用 timeformat 字符串时不受支持的一些格式。如果您的日期和时间值使用各不相同的格式,请结合使用 auto 参数与 timeformat 参数。

默认值:10

有效值:'timeformat_string' | 'auto' | 'epochsecs' | 'epochmillisecs'

示例:timeformat=auto

emptyasnull

指定 Amazon DMS 是否应迁移作为 null 的空 CHAR 和 VARCHAR 字段。值 true 可将空的 CHAR 和 VARCHAR 字段设置为 null。

默认值:false

有效值:true | false

示例:emptyasnull=true

truncateColumns

将列中的数据截断为合适的字符数以符合列规范。仅适用于具有 VARCHAR 或 CHAR 数据类型的列以及大小为 4 MB 或以下的行。

默认值:false

有效值:true | false

例如:

truncateColumns=true;

removeQuotes

删除传入数据中的字符串周围的引号。将保留引号中的所有字符(包括分隔符)。有关删除 Amazon Redshift 目标引号的更多信息,请参阅Amazon Redshift 数据库开发人员指南.

默认值:false

有效值:true | false

例如:

removeQuotes=true;

trimBlanks

删除 VARCHAR 字符串的尾部空格字符。此参数仅适用于具有 VARCHAR 数据类型的列。

默认值:false

有效值:true | false

例如:

trimBlanks=false;

encryptionMode 指定在将数据复制到 Amazon Redshift 之前要用于将数据推送到 S3 的服务器端加密模式。有效值为 SSE_S3(S3 服务器端加密)或 SSE_KMS(KMS 密钥加密)。如果您选择 SSE_KMS,请将 serverSideEncryptionKmsKeyId 参数设置为要用于加密的 KMS 密钥的 Amazon 资源名称 (ARN)。
注意

您也可以使用 CLImodify-endpoint命令更改的值encryptionMode属性的现有端点SSE_KMSSSE_S3. 但是你不能更改encryptionMode值自SSE_S3SSE_KMS.

默认值:SSE_S3

有效值:SSE_S3SSE_KMS

示例:encryptionMode=SSE_S3;

serverSideEncryptionKmsKeyId 如果您设置encryptionModeSSE_KMS下,将此参数设置为 KMS 密钥的 ARN。您可以通过在为您的账户创建的 Amazon KMS 密钥列表中选择密钥别名来查找此 ARN。在创建密钥时,您必须将特定策略和角色与密钥关联。有关更多信息,请参阅创建和使用Amazon KMS密钥来加密 Amazon Redshift 目标数据

例如:

serverSideEncryptionKmsKeyId=arn:aws:kms:us-east-1:111122223333:key/24c3c5a1-f34a-4519-a85b-2debbef226d1;

enableParallelBatchInMemoryCSVFiles 将此属性设置为false使用ParallelLoadThreads任务设置。这些区域有:enableParallelBatchInMemoryCSVFiles属性通过将 DMS 写入磁盘而不是内存来提高较大的多线程完全负载任务的性能。默认值为 true

Amazon Redshift 的多线程任务设置

您可以使用多线程任务设置提高 Amazon Redshift 目标终端节点的完全加载和更改数据捕获 (CDC) 任务的性能。使用它们,您可以指定并发线程的数量和要存储在缓冲区中的记录数。

Amazon Redshift 的多线程完全加载任务设置

要提高全负载性能,可以使用以下ParallelLoad*任务设置:

  • ParallelLoadThreads— 指定在完全加载期间 DMS 使用的并发线程数,以便将数据记录推送到 Amazon Redshift 目标终端节点。默认值为零 (0),最大值为 32。

    您可以使用enableParallelBatchInMemoryCSVFiles属性设置为false使用ParallelLoadThreads任务设置。该属性通过将 DMS 写入磁盘而不是内存来提高较大的多线程完全负载任务的性能。默认值为 true

  • ParallelLoadBufferSize— 指定使用具有 Redshift 目标的并行加载线程时的最大数据记录请求。默认值为 100,最大值为 1,000。我们建议您在并行加载线程 > 1(大于 1)时使用此选项。

注意

Support 使用ParallelLoad*任务设置在完全加载到 Amazon Redshift 目标终端节点期间可用Amazon DMS版本 3.4.5 及更高版本。

这些区域有:ReplaceInvalidCharsRedshift 端点设置不支持在更改数据捕获 (CDC) 期间或在启用 FULL LOAD 迁移任务期间使用。当未启用并行加载时,支持 FULL LOAD 迁移。有关更多信息,请参阅RedshiftSettings中的Amazon Database Migration ServiceAPI 参考

Amazon Redshift 的多线程 CDC 任务设置

要提高 CDC 性能,您可以使用以下ParallelApply*任务设置:

  • ParallelApplyThreads— 指定并行线程的数量Amazon DMS在 CDC 加载期间使用将数据记录推送到 Amazon Redshift 目标终端节点。默认值为零 (0),最大值为 32。

  • ParallelApplyBufferSize— 指定使用具有 Redshift 目标的并行应用线程时的最大数据记录请求。默认值为 100,最大值为 1,000。我们建议在并行应用线程 > 1(大于 1)时使用此选项。

    为了获得 Redshift 作为目标的最大好处,我们建议将ParallelApplyBufferSize至少两倍(双倍或更多)的数量ParallelApplyThreads.

注意

Support 使用ParallelApply*在 CDC 到 Amazon Redshift 目标终端节点期间的任务设置位于Amazon DMS版本 3.4.3 及更高版本。

应用的并行度级别取决于总批处理大小最大文件大小用于传输数据。使用带有 Redshift 目标的多线程 CDC 任务设置时,批处理大小相对于最大文件大小而言会获得优势。例如,您可以使用以下终端节点和任务设置的组合来调整以获得最佳性能。

// Redshift endpoint setting MaxFileSize=250000; // Task settings BatchApplyEnabled=true; BatchSplitSize =8000; BatchApplyTimeoutMax =1800; BatchApplyTimeoutMin =1800; ParallelApplyThreads=32; ParallelApplyBufferSize=100;

使用上述设置,处理繁重事务性工作负载的客户可以在 1800 秒内填充 8000 MB 批处理缓冲区,利用 32 个并行线程,最大文件大小为 250 MB。

有关更多信息,请参阅更改处理优化设置

注意

在对 Redshift 群集的持续复制期间运行的 DMS 查询可以与正在运行的其他应用程序查询共享相同的 WLM(工作负载管理)队列。因此,请考虑正确配置 WLM 属性,以便在向 Redshift 目标进行持续复制期间影响性能。例如,如果其他并行 ETL 查询正在运行,则 DMS 运行速度较慢,性能提升也会丢失。

Amazon Redshift 的目标数据类型

Amazon DMS 的 Amazon Redshift 终端节点支持大多数 Amazon Redshift 数据类型。下表显示了使用 Amazon DMS 时支持的 Amazon Redshift 目标数据类型以及来自 Amazon DMS 数据类型的默认映射。

有关 Amazon DMS 数据类型的其他信息,请参阅的数据类型AmazonDatabase Migration Service

Amazon DMS 数据类型

Amazon Redshift 数据类型

BOOLEAN

BOOL

BYTES

VARCHAR (Length)

DATE

DATE

TIME

VARCHAR(20)

DATETIME

如果小数位数 => 0 且 <= 6,请使用:

TIMESTAMP (s)

如果小数位数 => 7 且 <= 9,请使用:

VARCHAR(37)

INT1

INT2

INT2

INT2

INT4

INT4

INT8

INT8

NUMERIC

如果小数位数 => 0 且 <= 37,请使用:

NUMERIC (p,s)

如果小数位数 => 38 且 <= 127,请使用:

VARCHAR (Length)

REAL4

FLOAT4

REAL8

FLOAT8

STRING

如果长度为 1—65,535,请使用 VARCHAR (以字节为单位的长度)

如果长度为 65,536—2,147,483,647,请使用 VARCHAR (65535)

UINT1

INT2

UINT2

INT2

UINT4

INT4

UINT8

NUMERIC (20,0)

WSTRING

如果长度为 1—65,535,请使用 NVARCHAR (以字节为单位的长度)

如果长度为 65,536—2,147,483,647,请使用 NVARCHAR (65535)

BLOB

VARCHAR (最大 LOB 大小 *2)

最大 LOB 大小不能超过 31 KB。Amazon Redshift 不支持大于 64 KB 的 VARCHAR。

NCLOB

NVARCHAR (最大 LOB 大小)

最大 LOB 大小不能超过 63 KB。Amazon Redshift 不支持大于 64 KB 的 VARCHAR。

CLOB

VARCHAR (最大 LOB 大小)

最大 LOB 大小不能超过 63 KB。Amazon Redshift 不支持大于 64 KB 的 VARCHAR。