将零 ETL 集成与 Amazon Redshift 结合使用时的注意事项 - Amazon Redshift
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

将零 ETL 集成与 Amazon Redshift 结合使用时的注意事项

Amazon Redshift 的零 ETL 集成有以下注意事项。

  • 您的目标 Amazon Redshift 数据仓库必须满足以下先决条件:

    • 运行 Amazon Redshift Serverless 或 RA3 节点类型(ra3.16xlarge、ra3.4xlarge 和 ra3.xlplus)。

    • 已加密(如果使用预置集群)。

    • 已启用区分大小写。

  • 您无法在配置了集成的数据仓库上启用增强的 VPC 支持。

  • 如果您删除某个源而该源是 Amazon Redshift 数据仓库的授权集成源,则所有关联的集成都将进入 FAILED 状态。

  • 目标数据库是只读的。您无法在目标数据库中创建表、视图或实体化视图。但是,您可以在目标数据仓库中的其他表上使用实体化视图。

  • 只有在跨数据库查询中使用时才支持实体化视图。使用从零 ETL 集成中复制的数据刷新实体化视图时,会导致视图完全刷新。不支持增量刷新、自动查询重写、自动刷新和自动实体化视图。有关通过零 ETL 集成复制的数据创建实体化视图的信息,请参阅使用复制的数据创建实体化视图

  • 您只能查询目标数据仓库中处于 Synced 状态的表。有关更多信息,请参阅 零 ETL 集成的指标

  • Amazon Redshift 仅接受 UTF-8 字符,因此它可能不支持源中定义的排序规则。排序和比较规则可能有所不同,这最终会改变查询结果。

  • Amazon Redshift VARCHAR 数据类型的最大长度为 65535 个字节。当来自该源的内容不符合此限制时,复制将无法继续,系统会将表置于失败状态。有关零 ETL 集成源和 Amazon Redshift 数据库之间的数据类型差异的更多信息,请参阅《Amazon Aurora 用户指南》中的 Aurora 和 Amazon Redshift 之间的数据类型差异

  • 集成源中的表必须具有主键。否则,您的表无法复制到 Amazon Redshift 中的目标数据仓库。

  • 对于 Aurora PostgreSQL 和 RDS for MySQL 与 Amazon Redshift 的零 ETL 集成,请在预览模式下创建目标数据仓库。有关更多信息,请参阅 创建和配置目标 Amazon Redshift 数据仓库

  • 在将数据从事务数据存储复制到 Amazon Redshift 时,零 ETL 集成不支持转换。数据从源数据库按原样复制。不过,您可以在 Amazon Redshift 中对复制的数据应用转换。

  • 这可能会对 Amazon Redshift 中运行的其他工作负载造成影响。为消除零 ETL 集成对其他工作负载的影响,可考虑使用单独的端点进行零 ETL 集成,并通过数据共享与其他需要访问这些数据的端点共享数据。

  • 零 ETL 集成使用并行连接在 Amazon Redshift 中运行。该集成使用通过集成创建数据库的用户的凭证运行。查询运行时,这些连接在同步(写入)过程中不会启动并发扩展。并发扩展读取(从 Amazon Redshift 客户端)适用于同步对象。

有关适用于集成源的其他注意事项,请参阅以下主题之一:

  • 对于 Aurora 源,请参阅《Amazon Aurora 用户指南》中的限制

  • 对于 Amazon RDS 源,请参阅《Amazon RDS User Guide》中的 Limitations