Amazon Kinesis Data Streams 术语和概念 - Amazon Kinesis Data Streams
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

Amazon Kinesis Data Streams 术语和概念

当您开始使用 Amazon Kinesis Data Streams 时,了解其架构和术语将大有裨益。

Kinesis Data Streams 高级别架构

下图演示 Kinesis Data Streams 的高级别架构。这些区域有:创建者不断将数据推送到 Kinesis Data Streams,并且使用者实时处理数据。使用者(如在 Amazon EC2 上运行的自定义应用程序或 Amazon Kinesis Data Firehose treams 传输流)可以使用Amazon服务,例如 Amazon DynamoDB、Amazon Redshift 或 Amazon S3。


                Kinesis Data Streams 高级别架构图

Kinesis Data Streams 术语

Kinesis Data Streams

AKinesis Data Streams是一组分片。每个分片都有一系列数据记录。每个数据记录都有一个序列号,这是由 Kinesis Data Streams 分配的。

数据记录

A数据记录是存储在Kinesis Data Streams。数据记录由序列号,a分区键和数据 Blob,后者是不可变的字节序列。Kinesis Data Streams 不会以任何形式检查、解释或更改 Blob 中的数据。数据 Blob 最大可达 1 MB。

保留周期

保留期 是数据记录在添加到流中后可供访问的时间长度。在创建之后,流的保留期设置为默认值 24 小时。您可以将保留期增加到8760小时(365天)使用IncreaseStreamRetentionPeriod操作,并将保留期缩短至 24 小时(使用DecreaseStreamRetentionPeriodoperation. 对于保留期设置为 24 小时以上的流,将收取额外费用。有关更多信息,请参阅 Amazon Kinesis 数据流定价

Producer

创建者将记录放入 Amazon Kinesis Data Streams。例如,发送日志数据到流的 Web 服务器是创建器。

Consumer

使用者从 Amazon Kinesis Data Streams 获取记录并进行处理。这些使用者称为 Amazon Kinesis Data Streams 应用程序

Amazon Kinesis Data Streams 应用程序

一个Amazon Kinesis Data Streams 应用程序是通常在 EC2 实例队列上运行的流的使用者。

可以开发的使用者有两种:共享扇出功能使用者和增强型扇出功能使用者。要了解它们之间的区别,以及了解如何创建每种使用者,请参阅读取 Amazon Kinesis 数据流中的数据

Kinesis Data Streams 应用程序的输出可能是另一个流的输入,这使您能够创建实时处理数据的复杂拓扑。应用程序也可将数据发送到各种其他Amazon服务。一个流可以有多个应用程序,每个应用程序可同时单独使用流中的数据。

Shard

分片 是流中数据记录的唯一标识序列。一个流由一个或多个分片组成,每个分片提供一个固定的容量单位。每个分片每秒最多可支持 5 个事务进行读取,最大总数据读取速率为每秒 2 MB,写入高达每秒 1,000 条记录,最多可达每秒 1 MB 的总数据写入速率(包括分区键)。流的数据容量是您为流指定的分片数的函数。流的总容量是其分片容量的总和。

如果数据速率增加,您可以增加或减少分配给流的分片数量。有关更多信息,请参阅对流进行重新分片

分区键

A分区键用于按分片对流中的数据进行分组。Kinesis Data Streams 将属于一个流的数据记录隔离到多个分片中。它使用与每个数据记录关联的分区键确定指定数据记录属于哪个分片。分区键是 Unicode 字符串,每个键的最大长度限制为 256 个字符。MD5 哈希函数用于将分区键映射到 128 位整数值,并使用分片的哈希键范围将关联的数据记录映射到分片。当应用程序将数据放入流中时,它必须指定一个分区键。

序列号

每个数据记录都有一个序列号,它在其分片中每个分区键是唯一的。Kinesis Data Streams 在您使用client.putRecords或者client.putRecord。同一分区键的序列号通常会随时间推移增加。写入请求之间的时间段越长,序列号越大。

注意

序列号不能用作相同流中的数据集的索引。为了在逻辑上分隔数据集,请使用分区键或者为每个数据集创建单独的流。

Kinesis Data Streams

Kinesis Client Data 库将编译成应用程序,从而支持以容错方式使用流中的数据。Kinesis Ctreams 确保每个分片都有一个正在运行和处理该分片的记录处理器。库还可以简化流中的数据读取。Kinesis 客户端库使用 Amazon DynamoDB 表存储控制数据。它会为每个正在处理数据的应用程序创建一个表。

Kinesis 客户端库有两个主要版本。使用哪个版本取决于要创建的使用者的类型。有关更多信息,请参阅读取 Amazon Kinesis 数据流中的数据

Application Name

Amazon Kinesis Data Streams 应用程序的名称标识应用程序。每个应用程序必须具有一个唯一名称,此名称的范围限定于Amazon帐户和应用程序使用的区域。此名称用作 Amazon DynamoDB 中的控制表名称和 Amazon CloudWatch 指标的命名空间。

服务器端加密

当创建者将敏感数据输入流时,Amazon Kinesis Data Streams 可以自动加密这些数据。Kinesis Data Streams 使用Amazon KMS用于加密的主密钥。有关更多信息,请参阅Amazon Kinesis Data Streams 中的数据保护

注意

要读取或写入加密的流、创建者和使用者应用程序必须有权访问主密钥。有关向创建者应用程序和使用者应用程序授予权限的信息,请参阅使用用户生成的 KMS 主密钥的权限

注意

使用服务器端加密将产生 Amazon Key Management Service (Amazon KMS) 费用。有关更多信息,请参阅 。AmazonKey Management Service 定价