Amazon Redshift
数据库开发人员指南 (API Version 2012-12-01)
AWS 服务或AWS文档中描述的功能,可能因地区/位置而异。点 击 Getting Started with Amazon AWS to see specific differences applicable to the China (Beijing) Region.

将 Amazon Redshift 与其他服务结合使用

Amazon Redshift 与其他 AWS 服务集成,使您能够使用数据安全功能快速可靠地移动、转换和加载数据。

在 Amazon Redshift 和 Amazon S3 之间移动数据

Amazon Simple Storage Service (Amazon S3) 是一种 Web 服务,可在云中存储数据。Amazon Redshift 利用并行处理从存储在 Amazon S3 存储桶中的多个数据文件读取和加载数据。有关更多信息,请参阅 从 Amazon S3 加载数据

也可使用并行处理将数据从 Amazon Redshift 数据仓库导出到 Amazon S3 上的多个数据文件中。有关更多信息,请参阅 卸载数据

配合使用 Amazon Redshift 和 Amazon DynamoDB

Amazon DynamoDB 是一种完全托管的 NoSQL 数据库服务。您可以使用 COPY 命令从单个 Amazon DynamoDB 表加载带数据的 Amazon Redshift 表。有关更多信息,请参阅 从 Amazon DynamoDB 表加载数据

通过 SSH 导入远程主机中的数据

您可以在 Amazon Redshift 中使用 COPY 命令从一个或多个远程主机加载数据,例如 Amazon EMR 集群、Amazon EC2 实例或其他计算机。COPY 连接到使用 SSH 的远程主机并在远程主机上执行命令以生成数据。Amazon Redshift 支持多个同时连接。COPY 命令从多个主机源并行读取和加载输出。有关更多信息,请参阅 从远程主机加载数据

使用 AWS Data Pipeline 自动化数据加载

您可以使用 AWS Data Pipeline 来实现数据移动以及数据在 Amazon Redshift 中出入转换的自动化。通过使用 AWS Data Pipeline 的内置计划功能,可以排定和执行重复作业,不必自己编写复杂的数据传输或转换逻辑。例如,您可以将某个重复执行的任务设置为自动将数据从 Amazon DynamoDB 复制到 Amazon Redshift 中。有关演练创建定期将数据从 Amazon S3 移至 Amazon Redshift 的管道的过程的教程,请参阅 AWS Data Pipeline 开发人员指南 中的使用 AWS Data Pipeline 将数据复制到 Amazon Redshift