将 Amazon Redshift 数据库用作Amazon Database Migration Service - Amazon Database Migration Service
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

将 Amazon Redshift 数据库用作Amazon Database Migration Service

您可以使用将数据迁移到 Amazon Redshift 数据库Amazon Database Migration Service。Amazon Redshift 是一种完全托管的 PB 级云中数据仓库服务。以 Amazon Redshift 数据库为目标,您可以从所有其他支持的源数据库迁移数据。

Amazon Redshift 集群必须与复制实例位于同一Amazon账户和Amazon区域。

在数据库迁移到 Amazon Redshift 期间,Amazon DMS首先将数据移动到 Amazon S3 存储桶。当文件存储在 Amazon S3 存储桶中Amazon DMS时,将它们传输到 Amazon Redshift 数据仓库中的相应表中。 Amazon DMS在与 Amazon Redshift 数据库同一Amazon区域创建 S3 存储桶。Amazon DMS复制实例必须位于同一Amazon区域。

如果您使用Amazon CLI或 DMS API 将数据迁移到 Amazon Redshift,请设置Amazon Identity and Access Management (IAM) 角色以允许 S3 访问。有关创建此 IAM 角色的更多信息,请参阅 创建 IAM 角色以用于 Amazon CLI 和 Amazon DMS API

Amazon Redshift 终端节点为以下内容提供完全自动化:

  • 架构生成和数据类型映射

  • 源数据库表的完全加载

  • 增量加载对源表进行的更改

  • 应用对源表的数据定义语言 (DDL) 的架构更改

  • 完全加载和更改数据捕获 (CDC) 流程之间的同步。

Amazon Database Migration Service 支持完全加载和更改处理操作。Amazon DMS 从源数据库读取数据并创建一系列逗号分隔值 (.csv) 文件。对于满载操作,为每个表Amazon DMS创建文件。 Amazon DMS然后将每个表的表文件复制到 Amazon S3 中的单独文件夹。当文件上传到 Amazon S3 时,Amazon DMS会发送复制命令并将文件中的数据复制到 Amazon Redshift 中。对于更改处理操作,Amazon DMS将净更改复制到 .csv 文件中。 Amazon DMS然后将净变更文件上传到 Amazon S3,并将数据复制到 Amazon Redshift。

有关使用 Amazon Redshift 作为目标的更多详细信息Amazon DMS,请参阅以下部分:

将 Amazon Redshift 数据库用作的目标的先决条件Amazon Database Migration Service

以下列表描述了使用 Amazon Redshift 作为数据迁移目标所需的先决条件:

  • 使用Amazon管理控制台启动 Amazon Redshift 集群。记下您的Amazon账户和 Amazon Redshift 集群的基本信息,例如您的密码、用户名和数据库名称。创建 Amazon Redshift 目标终端节点时需要这些值。

  • Amazon Redshift 集群必须与复制实例位于同一Amazon账户和Amazon区域。

  • Amazon DMS复制实例需要网络连接到您的集群使用的 Amazon Redshift 终端节点(主机名和端口)。

  • Amazon DMS使用 Amazon S3 存储桶将数据传输到 Amazon Redshift 数据库。对于 Amazon DMS 创建存储桶,控制台使用 IAM 角色 dms-access-for-endpoint。如果您使用Amazon CLI或 DMS API 创建以 Amazon Redshift 作为目标数据库的数据库迁移,则必须创建此 IAM 角色。有关创建此角色的更多信息,请参阅 创建 IAM 角色以用于 Amazon CLI 和 Amazon DMS API

  • Amazon DMS将 BLOB、CLOB 和 ncLOB 转换为目标 Amazon Redshift 实例上的 VARCHAR。Amazon Redshift 不支持大于 64 KB 的 VARCHAR 数据类型,因此您无法在 Amazon Redshift 上存储传统 LOB。

  • 将目标元数据任务设置设置为 ftrue or BatchApplyEnabledAmazon DMS以处理 CDC 期间对 Amazon Redshift 目标表的更改。同时需要源表和目标表的主键。如果没有主键,则会逐条语句应用更改。这会导致目标延迟并影响集群提交队列,从而对 CDC 期间的任务性能产生负面影响。

使用 Redshift 作为目标所需的权限

使用 GRANT 命令为用户或用户组定义访问权限。权限包括各种访问选项,例如读取表和视图中的数据、写入数据和创建表的能力。有关将 GRANT 用作 Amazon Redshift 的更多信息,请参阅 Amazon Redshift 数据库开发人员指南中的 G RANT。

下面是授予对Amazon Redshift 表和视图的表、数据库、架构、函数、过程或语言级权限的语法,用于授予 Amazon Redshift 表和视图的特定权限。

GRANT { { SELECT | INSERT | UPDATE | DELETE | REFERENCES } [,...] | ALL [ PRIVILEGES ] } ON { [ TABLE ] table_name [, ...] | ALL TABLES IN SCHEMA schema_name [, ...] } TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT { { CREATE | TEMPORARY | TEMP } [,...] | ALL [ PRIVILEGES ] } ON DATABASE db_name [, ...] TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT { { CREATE | USAGE } [,...] | ALL [ PRIVILEGES ] } ON SCHEMA schema_name [, ...] TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT { EXECUTE | ALL [ PRIVILEGES ] } ON { FUNCTION function_name ( [ [ argname ] argtype [, ...] ] ) [, ...] | ALL FUNCTIONS IN SCHEMA schema_name [, ...] } TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT { EXECUTE | ALL [ PRIVILEGES ] } ON { PROCEDURE procedure_name ( [ [ argname ] argtype [, ...] ] ) [, ...] | ALL PROCEDURES IN SCHEMA schema_name [, ...] } TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...] GRANT USAGE ON LANGUAGE language_name [, ...] TO { username [ WITH GRANT OPTION ] | GROUP group_name | PUBLIC } [, ...]

以下是 Amazon Redshift 表和视图上的列级权限的语法。

GRANT { { SELECT | UPDATE } ( column_name [, ...] ) [, ...] | ALL [ PRIVILEGES ] ( column_name [,...] ) } ON { [ TABLE ] table_name [, ...] } TO { username | GROUP group_name | PUBLIC } [, ...]

以下是授予具有指定角色的用户和组的 ASSUMEROLE 权限的语法。

GRANT ASSUMEROLE ON { 'iam_role' [, ...] | ALL } TO { username | GROUP group_name | PUBLIC } [, ...] FOR { ALL | COPY | UNLOAD } [, ...]

使用Amazon Redshift 作为目标的限制Amazon Database Migration Service

使用 Amazon Redshift 数据库作为目标时,存在以下限制:

  • 不要为用作 Amazon Redshift 目标中间存储的 S3 存储桶启用版本控制。如果您需要 S3 版本控制,请使用生命周期策略主动删除旧版本。否则,由于 S3list-object 调用超时,您可能会遇到端点测试连接失败。要为 S3 存储桶创建生命周期策略,请参阅管理存储生命周期。要删除 S3 对象的某个版本,请参阅从启用版本控制的存储桶中删除对象版本

  • 不支持以下 DDL:

    ALTER TABLE table name MODIFY COLUMN column name data type;
  • Amazon DMS 无法迁移或复制对名称以下划线 (_) 开头的架构所做的更改。如果您具有名称以下划线开头的架构,请使用映射转换重命名目标上的架构。

  • Amazon Redshift 不支持大于 64 KB 的 VARCHAR。传统数据库中的 LOB 不能存储在 Amazon Redshift 中。

  • 当任意主键列名称使用了保留字时,不支持对具有多列主键的表应用 DELETE 语句。转至此处查看 Amazon Redshift 保留关键字的列表。

  • 如果源系统对源表的主键执行 UPDATE 操作,则可能会遇到性能问题。对目标应用更改时,会出现这些性能问题。这是因为 UPDATE(和 DELETE)操作依赖于主键值来识别目标行。如果您更新源表的主键,则任务日志将包含如下消息:

    Update on table 1 changes PK to a PK that was previously updated in the same bulk update.
  • 为 Redshift 集群配置终端节点时,DMS 不支持自定义 DNS 名称,您需要使用亚马逊提供的 DNS 名称。由于 Amazon Redshift 集群必须与复制实例位于同一Amazon账户和区域,因此如果您使用自定义 DNS 终端节点,则验证失败。

  • Amazon Redshift 的默认空闲会话超时时间为 4 小时。如果 DMS 复制任务中没有任何活动,Redshift 会在 4 小时后断开会话连接。错误可能是由于 DMS 无法连接并且可能需要重新启动。解决方法是,为 DMS 复制用户设置大于 4 小时的会话超时限制。或者,请参阅《Amazon Redshift 数据库开发者指南》中对 ALTER USER 的描述。

  • 在没有主键或唯一密钥的情况下Amazon DMS复制源表数据时,CDC 延迟可能会很高,从而导致性能水平不可接受。

将 Amazon Redshift 数据库配置为的目标Amazon Database Migration Service

Amazon Database Migration Service必须配置为可与 Amazon Redshift 实例一起使用。下表描述了 Amazon Redshift 终端节点的可用配置属性。

属性

描述

server

您正在使用的 Amazon Redshift 集群的名称。

port

Amazon Redshift 的端口号。默认值是 5439。

username

注册用户的Amazon Redshift 用户名。

password

在 username 属性中指定的用户的密码。

数据库

您正在使用的 Amazon Redshift 数据仓库(服务)的名称。

如果您想向 Amazon Redshift 终端节点添加额外的连接字符串属性,则可以指定maxFileSizefileTransferUploadStreams属性。有关这些属性的更多信息,请参阅使用 Amazon Redshift 作为目标时的额外连接属性Amazon DMS

使用增强型 VPC 路由,将 Amazon Redshift 作为目标Amazon Database Migration Service

如果您对 Amazon Redshift 目标使用增强型 VPC 路由,则您的 Amazon Redshift 集群和数据存储库之间的所有 COPY 流量都会通过您的 VPC。由于增强型 VPC 路由 会影响 Amazon Redshift 访问其他资源的方式,因此如果您未正确配置 VPC,COPY 命令可能会失败。

Amazon DMS可能会受到此行为的影响,因为它使用 COPY 命令将 S3 中的数据移动到 Amazon Redshift 集群。

Amazon DMS 将数据加载到 Amazon Redshift 目标时采用的步骤如下:

  1. Amazon DMS 将数据从源复制到复制服务器上的 .csv 文件。

  2. Amazon DMS使用Amazon SDK 将 .csv 文件复制到您账户上的 S3 存储桶中。

  3. Amazon DMS然后使用 Amazon Redshift 中的 COPY 命令将数据从 S3 中的 .csv 文件复制到 Amazon Redshift 中的相应表中。

如果未启用增强型 VPC 路由,则 Amazon Redshift 会通过互联网路由流量,包括至Amazon网络中的其他服务的流量。如果未启用该功能,您不必配置网络路径。如果启用此功能,您必须专门创建您群集的 VPC 与数据源之间的网络路径。有关所需配置的更多信息,请参阅 Amazon Redshift 文档中的增强型 VPC 路由

创建和使用Amazon KMS密钥来加密 Amazon Redshift 目标数据

在将推送到 Amazon S3 的目标数据复制到 Amazon Redshift 之前,您可以对其进行加密。为此,您可以创建并使用自定义 Amazon KMS 密钥。在创建 Amazon Redshift 目标终端节点时,您可以使用创建的密钥使用以下机制之一加密目标数据:

要使用 KMS 密钥加密 Amazon Redshift 目标数据,您需要一个有权访问 Amazon Redshift 数据的Amazon Identity and Access Management (IAM) 角色。然后,可以在附加到您创建的加密密钥的策略(密钥策略)中访问此 IAM 角色。您可以通过创建以下内容来在 IAM 控制台中执行此操作:

  • 具有Amazon托管策略的 IAM 角色。

  • 具有引用此角色的密钥策略的 KMS 密钥。

以下过程介绍了如何执行此操作。

使用所需Amazon托管策略的 IAM 角色
  1. 通过以下网址打开 IAM 控制台:https://console.aws.amazon.com/iam/

  2. 在导航窗格中,选择 Roles(角色)。Roles (角色) 页面随即打开。

  3. 选择 Create role(创建角色)。Create role (创建角色) 页面随即打开。

  4. 选择Amazon服务作为可信实体后,选择 DMS 作为要使用该角色的服务。

  5. 选择Next: Permissions(下一步: 权限)。此时将显示 Attach permissions policies (附加权限策略) 页面。

  6. 查找并选择 AmazonDMSRedshiftS3Role 策略。

  7. 选择 下一步:标签。此时将显示 Add tags (添加标签) 页面。您可以在此处添加所需的任何标签。

  8. 选择 Next: Review (下一步: 审核) 并检查您的结果。

  9. 如果这些设置是您所需的,请输入角色的名称(例如,DMS-Redshift-endpoint-access-role)及任何其他描述,然后选择 Create role (创建角色)Roles (角色) 页面随即打开,并显示一条指示您的角色已创建的消息。

例如,您现在已经创建了新角色来访问用于使用指定名称的 Amazon Redshift 资源进行加密DMS-Redshift-endpoint-access-role

使用引用您的 IAM 角色的密钥策略创建Amazon KMS加密密钥
注意

有关如何将 Amazon DMS 与 Amazon KMS 加密密钥结合使用的更多信息,请参阅 设置加密密钥和指定 Amazon KMS 权限

  1. 登录到 Amazon Web Services Management Console,然后通过以下网址打开 Amazon Key Management Service (Amazon KMS) 控制台:https://console.aws.amazon.com/kms

  2. 要更改 Amazon Web Services 区域,请使用页面右上角的区域选择器。

  3. 在导航窗格中,选择客户托管密钥

  4. 选择 Create key。此时会打开 Configure key (配置密钥) 页面。

  5. 对于 Key type (密钥类型),选择 Symmetric (对称)

    注意

    创建此密钥时,只能创建对称密钥,因为所有Amazon服务(例如 Amazon Redshift)只能使用对称加密密钥。

  6. 选择 Advanced Options。对于 Key material origin (密钥材料来源),请确保选择了 KMS,然后选择 Next (下一步)。此时会打开 Add labels (添加标签) 页面。

  7. 对于 Create alias and description (创建别名和描述),输入密钥的别名(例如 DMS-Redshift-endpoint-encryption-key)和任何其他描述。

  8. 对于 Tags (标签),添加要用于帮助标识密钥并跟踪其使用情况的任何标签,然后选择 Next (下一步)。此时会打开 Define key administrative permissions (定义密钥管理权限) 页面,其中显示了可供选择的用户和角色的列表。

  9. 添加要管理密钥的用户和角色。确保这些用户和角色具有管理密钥所需的权限。

  10. 对于 Key deletion (密钥删除),选择密钥管理员是否能删除密钥,然后选择 Next (下一步)。此时会打开 Define Key Usage Permissions (定义密钥使用权限) 页面,其中显示了可供选择的用户和角色的附加列表。

  11. 对于此账户,选择要在 Amazon Redshift 目标上执行加密操作的可用用户。此外,还要选择您之前在 “角色” 中创建的角色以启用加密 Amazon Redshift 目标对象的权限,例如DMS-Redshift-endpoint-access-role)。

  12. 如果要添加未列出的其他帐户以使其具有相同访问权限,请在 “其他Amazon帐户” 中选择 “添加其他Amazon帐户”,然后选择 “下一步”。此时会打开 Review and edit key policy (查看和编辑密钥策略) 页面,其中显示了密钥策略的 JSON,您可以通过键入到现有 JSON 来查看和编辑该策略。在此处,您可以看到密钥策略引用您在上一步中选择的角色和用户(例如,AdminUser1)的位置。您还可以查看不同的委托人(用户和角色)所允许的不同的密钥操作,如以下示例所示。

    { "Id": "key-consolepolicy-3", "Version": "2012-10-17", "Statement": [ { "Sid": "Enable IAM User Permissions", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:root" ] }, "Action": "kms:*", "Resource": "*" }, { "Sid": "Allow access for Key Administrators", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:role/Admin" ] }, "Action": [ "kms:Create*", "kms:Describe*", "kms:Enable*", "kms:List*", "kms:Put*", "kms:Update*", "kms:Revoke*", "kms:Disable*", "kms:Get*", "kms:Delete*", "kms:TagResource", "kms:UntagResource", "kms:ScheduleKeyDeletion", "kms:CancelKeyDeletion" ], "Resource": "*" }, { "Sid": "Allow use of the key", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:role/DMS-Redshift-endpoint-access-role", "arn:aws:iam::111122223333:role/Admin", "arn:aws:iam::111122223333:role/User1" ] }, "Action": [ "kms:Encrypt", "kms:Decrypt", "kms:ReEncrypt*", "kms:GenerateDataKey*", "kms:DescribeKey" ], "Resource": "*" }, { "Sid": "Allow attachment of persistent resources", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::111122223333:role/DMS-Redshift-endpoint-access-role", "arn:aws:iam::111122223333:role/Admin", "arn:aws:iam::111122223333:role/User1" ] }, "Action": [ "kms:CreateGrant", "kms:ListGrants", "kms:RevokeGrant" ], "Resource": "*", "Condition": { "Bool": { "kms:GrantIsForAWSResource": true } } } ]
  13. 选择 Finish (结束)加密密钥页面打开时会显示一条消息,表明您Amazon KMS key已创建。

现在,您已创建一个具有指定别名(例如,DMS-Redshift-endpoint-encryption-key)的新 KMS 密钥。此密钥Amazon DMS允许加密 Amazon Redshift 目标数据。

使用 Amazon Redshift 作为目标时的终端节点设置Amazon DMS

您可以使用终端节点设置来配置 Amazon Redshift 目标,就像使用额外的连接属性一样。您可以在 Amazon CLI 中使用 create-endpoint 命令创建目标终端节点时通过 --redshift-settings "json-settings" 选项指定这些设置。此处,json-settings 是包含用于指定设置的参数的 JSON 对象。例如,您还可以指定一个包含相同 json-settings 对象的 .json 文件,如下所示:--redshift-settings file:///your-file-path/my_redshift_settings.json。在这里,my_redshift_settings.json 是包含相同 json-settings object 的 .json 文件的名称。

终端节点设置的参数名称与同等额外连接属性的名称相同,但终端节点设置的参数名称的开头为大写形式。此外,并非所有使用额外连接属性的Amazon Redshift目标终端节点设置都可使用create-endpoint命令--redshift-settings选项。有关Amazon CLI调用中的可用设置的更多信息,请参阅的Amazon CLI命令参考中的 create- endpointAmazon DMS。create-endpoint有关这些设置的更多信息,请参阅使用 Amazon Redshift 作为目标时的额外连接属性Amazon DMS中的等效额外连接属性。

您可以使用 Amazon Redshift 目标终端节点设置来配置以下内容:

  • 自定义 Amazon KMS 数据加密密钥。然后,您可以使用此密钥对推送到 Amazon S3 的数据进行加密,然后再将其复制到 Amazon Redshift。

  • 自定义 S3 存储桶作为迁移到 Amazon Redshift 的数据的中间存储。

  • 将来自 PostgreSQL 源的布尔值映射为布尔值。默认情况下,布尔类型会迁移为 varchar (1)。您可以指定MapBooleanAsBoolean让 Redshift 目标将布尔类型迁移为布尔值,如以下示例所示。

    redshift-settings='{"MapBooleanAsBoolean": "true"}'

用于数据加密的 KMS 密钥设置

以下示例说明如何配置自定义 KMS 密钥以加密推送到 S3 的数据。要开始,您可以使用 Amazon CLI 进行以下 create-endpoint 调用。

aws dms create-endpoint --endpoint-identifier redshift-target-endpoint --endpoint-type target --engine-name redshift --username your-username --password your-password --server-name your-server-name --port 5439 --database-name your-db-name --redshift-settings '{"EncryptionMode": "SSE_KMS", "ServerSideEncryptionKmsKeyId": "arn:aws:kms:us-east-1:111122223333:key/24c3c5a1-f34a-4519-a85b-2debbef226d1"}'

此处,--redshift-settings 选项所指定的 JSON 对象定义了两个参数。一个是带值 SSE_KMSEncryptionMode 参数。另一个是带值 arn:aws:kms:us-east-1:111122223333:key/24c3c5a1-f34a-4519-a85b-2debbef226d1ServerSideEncryptionKmsKeyId 参数。此值是自定义 KMS 密钥的 Amazon 资源名称 (ARN)。

默认情况下,使用 S3 服务器端加密进行 S3 数据加密。对于前面示例的 Amazon Redshift 目标,这也等同于指定其终端节点设置,如以下示例所示。

aws dms create-endpoint --endpoint-identifier redshift-target-endpoint --endpoint-type target --engine-name redshift --username your-username --password your-password --server-name your-server-name --port 5439 --database-name your-db-name --redshift-settings '{"EncryptionMode": "SSE_S3"}'

有关使用 S3 服务器端加密,请参阅 Amazon Simple Storage Simple Storage Simple Storag e Simple Storage Simple Storage

注意

您也可以使用 CLImodify-endpoint 命令将现有端点的EncryptionMode参数值从更改SSE_KMSSSE_S3。但是您无法将EncryptionMode值从更改SSE_S3SSE_KMS

Amazon S3 存储桶设置

将数据迁移到 Amazon Redshift 目标终端节点时,在将迁移的数据复制到 Amazon Redshift 之前,Amazon DMS使用默认的 Amazon S3 存储桶作为中间任务存储。例如,所示的使用Amazon KMS数据加密密钥创建 Amazon Redshift 目标终端节点的示例使用此默认 S3 存储桶(参见用于数据加密的 KMS 密钥设置)。

您可以通过在 Amazon CLI create-endpoint 命令的 --redshift-settings 选项值中包含以下参数来为此中间存储指定自定义 S3 存储桶:

  • BucketName— 指定用作 S3 桶存储桶存储名称的字符串。

  • BucketFolder—(可选)可以指定为指定 S3 存储桶中存储文件夹名称的字符串。

  • ServiceAccessRoleArn— 允许对 S3 桶进行管理访问的 IAM 角色的 ARN。通常,您将根据 AmazonDMSRedshiftS3Role 策略创建此角色。有关示例,请参阅中使用所需的Amazon-managed 策略创建 IAM 角色的过程创建和使用Amazon KMS密钥来加密 Amazon Redshift 目标数据

    注意

    如果您使用 create-endpoint 命令的 --service-access-role-arn 选项指定其他 IAM 角色的 ARN,则此 IAM 角色选项优先。

以下示例显示了如何使用这些参数在以下create-endpoint调用中使用来指定自定义 Amazon S3 存储桶Amazon CLI。

aws dms create-endpoint --endpoint-identifier redshift-target-endpoint --endpoint-type target --engine-name redshift --username your-username --password your-password --server-name your-server-name --port 5439 --database-name your-db-name --redshift-settings '{"ServiceAccessRoleArn": "your-service-access-ARN", "BucketName": "your-bucket-name", "BucketFolder": "your-bucket-folder-name"}'

使用 Amazon Redshift 作为目标时的额外连接属性Amazon DMS

您可以使用额外的连接属性来配置您的 Amazon Redshift 目标。在创建目标终端节点时,您可以指定这些设置。如果您具有多个连接属性设置,请用分号将它们彼此分开,并且不需要额外的空格。

下表显示了以 Amazon Redshift 为目标时可用的额外连接属性。

名称 描述

maxFileSize

指定用于将数据传输到 Amazon Redshift 的任何 .csv 文件的最大大小(以 KB 为单位)。

默认值:32768 KB (32 MB)

有效值:1—1048576

示例:maxFileSize=512

fileTransferUploadStreams

指定用于上传单个文件的线程的数目。

调整渲染效果的缩放。

有效值:1—64

示例:fileTransferUploadStreams=20

acceptanydate

指定是否接受任何日期格式,包括无效和日期格式,如 0000-00-00。布尔值。

默认值:false

有效值:true | false

示例:acceptanydate=true

dateformat

指定日期格式。默认情况下,这是一个字符串输入且为空。默认格式为 YYYY-MM-DD,但您可以将其更改为 DD-MM-YYYY。如果您的日期或时间值使用不同的格式,请结合使用 auto 参数与 dateformat 参数。auto 参数将识别使用 dateformat 字符串时不受支持的一些格式。auto 关键字区分大小写。

默认值:empty

有效值:'dateformat_string' 或 auto

示例:dateformat=auto

timeformat

指定时间格式。默认情况下,这是一个字符串输入且为空。auto 参数将识别使用 timeformat 字符串时不受支持的一些格式。如果您的日期和时间值使用各不相同的格式,请结合使用 auto 参数与 timeformat 参数。

调整渲染效果的缩放。

有效值:'timeformat_string' | 'auto' | 'epochsecs' | 'epochmillisecs'

示例:timeformat=auto

emptyasnull

指定 Amazon DMS 是否应迁移作为 null 的空 CHAR 和 VARCHAR 字段。值 true 可将空的 CHAR 和 VARCHAR 字段设置为 null。

默认值:false

有效值:true | false

示例:emptyasnull=true

truncateColumns

将列中的数据截断为合适的字符数以符合列规范。仅适用于具有 VARCHAR 或 CHAR 数据类型的列以及大小为 4 MB 或以下的行。

默认值:false

有效值:true | false

示例:

truncateColumns=true;

removeQuotes

删除传入数据中的字符串周围的引号。将保留引号中的所有字符(包括分隔符)。有关移除 Amazon Redshift 目标引号的更多信息,请参阅 Amazon Redshift 数据库开发人员指南

默认值:false

有效值:true | false

示例:

removeQuotes=true;

trimBlanks

删除 VARCHAR 字符串的尾部空格字符。此参数仅适用于具有 VARCHAR 数据类型的列。

默认值:false

有效值:true | false

示例:

trimBlanks=false;

encryptionMode 指定要在将数据复制到 Amazon Redshift 之前将数据推送到 S3 的服务器端加密模式。有效值为 SSE_S3(S3 服务器端加密)或 SSE_KMS(KMS 密钥加密)。如果您选择 SSE_KMS,请将 serverSideEncryptionKmsKeyId 参数设置为要用于加密的 KMS 密钥的 Amazon 资源名称 (ARN)。
注意

您也可以使用 CLImodify-endpoint 命令将现有端点的encryptionMode属性值从更改SSE_KMSSSE_S3。但是您无法将encryptionMode值从更改SSE_S3SSE_KMS

默认值:SSE_S3

有效值:SSE_S3SSE_KMS

示例:encryptionMode=SSE_S3;

serverSideEncryptionKmsKeyId 如果设置为SSE_KMSencryptionMode请将此参数设置为 KMS 密钥的 ARN。您可以通过在为您的账户创建的 Amazon KMS 密钥列表中选择密钥别名来查找此 ARN。在创建密钥时,您必须将特定策略和角色与密钥关联。有关更多信息,请参阅 创建和使用Amazon KMS密钥来加密 Amazon Redshift 目标数据

示例:

serverSideEncryptionKmsKeyId=arn:aws:kms:us-east-1:111122223333:key/24c3c5a1-f34a-4519-a85b-2debbef226d1;

enableParallelBatchInMemoryCSVFiles 使用ParallelLoadThreads任务设置false时,将此属性设置为。该enableParallelBatchInMemoryCSVFiles属性通过让 DMS 写入磁盘而不是内存,提高了大型多线程满载任务的性能。默认值为 true
compressCsvFile 使用此属性压缩迁移期间发送到 Redshift 目标的数据。默认值为true,默认情况下压缩处于启用状态。

Amazon Redshift 的多线程任务设置

您可以使用多线程任务设置提高 Amazon Redshift 目标终端节点的满负荷和更改数据捕获 (CDC) 任务的性能。它们使您能够指定并发线程数和要存储在缓冲区中的记录数。

Amazon Redshift 的多线程满载任务设置

要提高满负荷性能,可以使用以下ParallelLoad*任务设置:

  • ParallelLoadThreads— 指定 DMS 在满载期间用于将数据记录推送到 Amazon Redshift 目标终端节点的并发线程数。默认值为零 (0),最大值为 32。

    使用ParallelLoadThreads任务设置false时,您可以使用设置为的enableParallelBatchInMemoryCSVFiles属性。该属性通过让 DMS 写入磁盘而不是内存,提高了大型多线程满载任务的性能。默认值为 true

  • ParallelLoadBufferSize— 指定在 Redshift 目标上使用parallel 加载线程时的最大数据记录请求数。默认值为 100,最大值为 1000。我们建议您在 ParallelLoadThreads > 1(大于一)时使用此选项。

注意

3.4.5 及更高Amazon DMS版本Support 在 Amazon Redshift 目标终端节点满载期间使用ParallelLoad*任务设置。

不支持在ReplaceInvalidChars变更数据捕获 (CDC) 期间或启用parallel 加载的 FULL LOAD 迁移任务期间使用 Redshift 端点设置。未启用parallel 加载时,支持 FULL LOAD 迁移。有关更多信息,请参阅 Amazon Database Migration ServiceAPI 参考RedshiftSettings中的

Amazon Redshift 的多线程 CDC 任务设置

要提高 CDC 性能,可以使用以下ParallelApply*任务设置:

  • ParallelApplyThreads— 指定在 CDC 加载期间Amazon DMS用于将数据记录推送到 Amazon Redshift 目标终端节点的并发线程数。默认值为零 (0),最大值为 32。

  • ParallelApplyBufferSize— 指定在 Redshift 目标上使用parallel 应用线程时的最大数据记录请求数。默认值为 100,最大值为 1000。我们建议在 ParallelApplyThreads > 1(大于一)时使用此选项。

    为使 Redshift 作为目标获得最大收益,我们建议的值至少ParallelApplyBufferSize为目标数的两倍(两倍或更多)ParallelApplyThreads

注意

3.4.3 及更高Amazon DMS版本Support 在 CDC 到 Amazon Redshift 目标终端节点期间使用ParallelApply*任务设置。

应用的并行级别取决于总批处理大小与用于传输数据的最大文件大小之间的相关性。当使用带有 Redshift 目标的多线程 CDC 任务设置时,当批量大小相对于最大文件大小而言较大时,就会获得好处。例如,您可以使用以下端点和任务设置组合来调整以获得最佳性能。

// Redshift endpoint setting MaxFileSize=250000; // Task settings BatchApplyEnabled=true; BatchSplitSize =8000; BatchApplyTimeoutMax =1800; BatchApplyTimeoutMin =1800; ParallelApplyThreads=32; ParallelApplyBufferSize=100;

使用上述设置,事务工作负载繁重的客户将受益于他们的 8000 MB 批处理缓冲区在 1800 秒内被填满,使用 32 个parallel 线程,最大文件大小为 250 MB。

有关更多信息,请参阅 更改处理优化设置

注意

在持续复制到 Redshift 集群期间运行的 DMS 查询可以与其他正在运行的应用程序查询共享相同的 WLM(工作负载管理)队列。因此,可以考虑正确配置 WLM 属性,以影响正在进行的 Redshift 目标复制期间的性能。例如,如果其他parallel ETL 查询正在运行,则 DMS 的运行速度会变慢,性能提升也会丢失。

Amazon Redshift 的目标数据类型

Amazon DMS 的 Amazon Redshift 终端节点支持大多数 Amazon Redshift 数据类型。下表显示了使用 Amazon DMS 时支持的 Amazon Redshift 目标数据类型以及来自 Amazon DMS 数据类型的默认映射。

有关 Amazon DMS 数据类型的其他信息,请参阅DatAmazon abase Migration Service 数据类型

Amazon DMS 数据类型

Amazon Redshift 数据类型

BOOLEAN

BOOL

BYTES

VARCHAR (Length)

DATE

DATE

TIME

VARCHAR(20)

DATETIME

如果比例为 => 0 和 =< 6,具体取决于 Redshift 目标列类型,则为以下任一值:

TIMESTAMP (s)

TIMESTAMPTZ (s) — 如果源时间戳包含区域偏移量(例如在 SQL Server 或 Oracle 中),则它会在插入/更新时转换为 UTC。如果它不包含偏移量,则已经考虑了采用 UTC 的时间。

如果小数位数 => 7 且 <= 9,请使用:

VARCHAR(37)

INT1

INT2

INT2

INT2

INT4

INT4

INT8

INT8

NUMERIC

如果小数位数 => 0 且 <= 37,请使用:

NUMERIC (p,s)

如果小数位数 => 38 且 <= 127,请使用:

VARCHAR (Length)

REAL4

FLOAT4

REAL8

FLOAT8

STRING

如果长度为 1—65,535,则使用 VARCHAR(长度以字节为单位)

如果长度为 65536—2,147,647,则使用 VARCHAR (65535)

UINT1

INT2

UINT2

INT2

UINT4

INT4

UINT8

NUMERIC (20,0)

WSTRING

如果长度为 1—65,535,则使用 NVARCHAR(长度以字节为单位)

如果长度为 65536—2,147,647,则使用 NVARCHAR (65535)

BLOB

VARCHAR (最大 LOB 大小 *2)

最大 LOB 大小不能超过 31 KB。Amazon Redshift 不支持大于 64 KB 的 VARCHAR。

NCLOB

NVARCHAR (最大 LOB 大小)

最大 LOB 大小不能超过 63 KB。Amazon Redshift 不支持大于 64 KB 的 VARCHAR。

CLOB

VARCHAR (最大 LOB 大小)

最大 LOB 大小不能超过 63 KB。Amazon Redshift 不支持大于 64 KB 的 VARCHAR。