本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
例如:写入 Amazon S3 存储桶
在本练习中,您创建适用于 Apache Flink 的 Kinesis Data Analytics 应用程序,它将 Kinesis 数据流作为源,并将 Amazon S3 存储桶作为接收器。通过使用接收器,您可以在 Amazon S3 控制台中验证应用程序输出。
要为本练习设置所需的先决条件,请先完成入门 (DataStreamAPI)练习。
本主题包含下列部分:
创建相关资源
在为本练习创建适用于 Apache Flink 的 Kinesis Data Analytics 应用程序之前,请创建以下相关资源:
-
Kinesis 数据流 (
ExampleInputStream
)。 -
用于存储应用程序代码和输出 (的 Amazon S3 存储段)
ka-app-
)<username>
在 Kinesis Data Analytics 上启用了服务器端加密的情况下,Apache Flink 的 Kinesis Data Analytics 无法将数据写入 Amazon S3。
您可以使用控制台创建 Kinesis 流和 Amazon S3 存储桶。有关创建这些资源的说明,请参阅以下主题:
-
创建和更新数据流中的Amazon Kinesis Data Streams 开发人员指南. 将数据流命名为
ExampleInputStream
。 -
如何创建 S3 存储桶?中的Amazon Simple Storage Service 用户指南. 附加您的登录名,以便为 Amazon S3 存储桶指定全局唯一的名称,例如。
ka-app-
. 创建两个文件夹 (<username>
code
和data
) 在 Amazon S3 存储桶中。
应用程序创建以下内容 CloudWatch 如果资源不存在,则:
-
名为
/aws/kinesis-analytics-java/MyApplication
的日志组。 -
名为
kinesis-analytics-log-stream
的日志流。
将示例记录写入输入流
在本节中,您使用 Python 脚本将示例记录写入流,以供应用程序处理。
此部分需要 Amazon SDK for Python (Boto)
-
使用以下内容创建名为
stock.py
的文件:import datetime import json import random import boto3 STREAM_NAME = "ExampleInputStream" def get_data(): return { 'EVENT_TIME': datetime.datetime.now().isoformat(), 'TICKER': random.choice(['AAPL', 'AMZN', 'MSFT', 'INTC', 'TBV']), 'PRICE': round(random.random() * 100, 2)} def generate(stream_name, kinesis_client): while True: data = get_data() print(data) kinesis_client.put_record( StreamName=stream_name, Data=json.dumps(data), PartitionKey="partitionkey") if __name__ == '__main__': generate(STREAM_NAME, boto3.client('kinesis'))
-
运行
stock.py
脚本:$ python stock.py
在完成本教程的其余部分时,请将脚本保持运行状态。
下载并检查应用程序代码
在 GitHub 中提供了该示例的 Java 应用程序代码。要下载应用程序代码,请执行以下操作:
-
如果尚未安装 Git 客户端,请安装它。有关更多信息,请参阅安装 Git
。 -
使用以下命令克隆远程存储库:
git clone https://github.com/aws-samples/amazon-kinesis-data-analytics-java-examples
-
导航到
amazon-kinesis-data-analytics-java-examples/S3Sink
目录。
应用程序代码位于 S3StreamingSinkJob.java
文件中。请注意有关应用程序代码的以下信息:
-
应用程序使用 Kinesis 源从源流中进行读取。以下代码段创建 Kinesis 源:
return env.addSource(new FlinkKinesisConsumer<>(inputStreamName, new SimpleStringSchema(), inputProperties));
-
您需要添加以下导入语句:
import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows;
-
该应用程序使用 Apache Flink S3 接收器写入到 Amazon S3。
接收器在滚动窗口中读取消息,将消息编码为 S3 存储桶对象,然后将编码的对象发送到 S3 接收器。以下代码将对象进行编码以发送到 Amazon S3:
input.map(value -> { // Parse the JSON JsonNode jsonNode = jsonParser.readValue(value, JsonNode.class); return new Tuple2><jsonNode.get("TICKER").toString(), 1); }).returns(Types.TUPLE(Types.STRING, Types.INT)) .keyBy(0) // Logically partition the stream for each word // .timeWindow(Time.minutes(1)) // Tumbling window definition // Flink 1.11 .window(TumblingProcessingTimeWindows.of(Time.minutes(1))) // Flink 1.13 .sum(1) // Count the appearances by ticker per partition .map(value -> value.f0 + " count: " + value.f1.toString() + "\n") .addSink(createS3SinkFromStaticConfig()); env.execute("Flink S3 Streaming Sink Job");
该应用程序使用 FlinkStreamingFileSink
将写入 Amazon S3 的对象。有关的更多信息StreamingFileSink
请参阅,串流 FileSink
修改应用程序代码
在本节中,您修改应用程序代码以将输出写入到 Amazon S3 存储桶。
使用您的用户名更新以下行以指定应用程序的输出位置:
private static final String s3SinkPath = "s3a://ka-app-
<username>
/data";
编译应用程序代码
要编译应用程序,请执行以下操作:
-
如果还没有 Java 和 Maven,请安装它们。有关更多信息,请参阅入门 (DataStreamAPI)教程中的先决条件。
-
使用以下命令编译应用程序:
mvn package -Dflink.version=1.13.2
编译应用程序将创建应用程序 JAR 文件 (target/aws-kinesis-analytics-java-apps-1.0.jar
)。
提供的源代码依赖于 Java 11 中的库。如果你使用的是开发环境,
上传 Apache Flink 流式处理 Java 代码
在本节中,您将应用程序代码上传到在中创建的 Amazon S3 存储桶。创建相关资源 将示例记录写入输入流部分。
-
在 Amazon S3 控制台中,选择ka-app-
<username>
存储桶,导航到代码文件夹,然后选择上传. -
在选择文件步骤中,选择添加文件。导航到您在上一步中创建的
aws-kinesis-analytics-java-apps-1.0.jar
文件。 -
您无需更改该对象的任何设置,因此,请选择 Upload (上传)。
您的应用程序代码现在存储在 Amazon S3 存储桶中,应用程序可以在其中访问代码。
创建和运行 Kinesis Data Analytics 应用程序
按照以下步骤,使用控制台创建、配置、更新和运行应用程序。
创建 应用程序
打开 Kinesis Data Analytics 控制台https://console.aws.amazon.com/kinesisanalytics
. -
在 Kinesis Data Analytics 仪表板上,选择创建分析应用.
-
在 Kinesis Analytics – 创建应用程序页面上,提供应用程序详细信息,如下所示:
-
对于 Application name (应用程序名称),输入
MyApplication
。 -
对于 Runtime (运行时),请选择 Apache Flink。
将版本下拉列表保留为使用 Apache Flink 版本 1.13.2(推荐版本).
-
-
对于访问权限,请选择 Create / update IAM role (创建/更新 IAM 角色)
kinesis-analytics-MyApplication-us-west-2
。 -
选择 Create application(创建应用程序)。
注意 在使用控制台创建 Kinesis Data Analytics 应用程序时,您可以选择为应用程序创建 IAM 角色和策略。您的应用程序使用此角色和策略访问其从属资源。这些 IAM 资源使用您的应用程序名称和区域命名,如下所示:
-
对于 Application name (应用程序名称),输入
MyApplication
。 -
对于 Runtime (运行时),请选择 Apache Flink。
-
将版本保留为使用 Apache Flink 版本 1.13.2(推荐版本).
-
-
对于访问权限,请选择 Create / update IAM role (创建/更新 IAM 角色)
kinesis-analytics-MyApplication-us-west-2
。 -
选择 Create application(创建应用程序)。
在使用控制台创建适用于 Apache Flink 的 Kinesis Data Analytics 应用程序时,您可以选择为应用程序创建 IAM 角色和策略。您的应用程序使用此角色和策略访问其从属资源。这些 IAM 资源使用您的应用程序名称和区域命名,如下所示:
-
策略:
kinesis-analytics-service-
MyApplication
-us-west-2
-
角色:
kinesis-analytics-
MyApplication
-us-west-2
编辑 IAM 策略
编辑 IAM 策略以添加访问 Kinesis Data 流的权限。
通过以下网址打开 IAM 控制台:https://console.aws.amazon.com/iam/
。 -
选择策略。选择控制台在上一部分中为您创建的
kinesis-analytics-service-MyApplication-us-west-2
策略。 -
在 Summary (摘要) 页面上,选择 Edit policy (编辑策略)。请选择 JSON 选项卡。
-
将以下策略示例中突出显示的部分添加到策略中。将示例账户 ID (
012345678901
) 替换为您的账户 ID。将<username>其替换为您的用户名。{ "Sid": "ReadCode", "Effect": "Allow", "Action": [ "s3:GetObject", "s3:GetObjectVersion" ], "Resource": [ "arn:aws:s3:::kinesis-analytics-placeholder-s3-bucket/kinesis-analytics-placeholder-s3-object" ] }, { "Sid": "ListCloudwatchLogGroups", "Effect": "Allow", "Action": [ "logs:DescribeLogGroups" ], "Resource": [ "arn:aws:logs:region:account-id:log-group:*" ] }, { "Sid": "ListCloudwatchLogStreams", "Effect": "Allow", "Action": [ "logs:DescribeLogStreams" ], "Resource": [ "arn:aws:logs:region:account-id:log-group:%LOG_GROUP_PLACEHOLDER%:log-stream:*" ] }, { "Sid": "PutCloudwatchLogs", "Effect": "Allow", "Action": [ "logs:PutLogEvents" ], "Resource": [ "arn:aws:logs:region:account-id:log-group:%LOG_GROUP_PLACEHOLDER%:log-stream:%LOG_STREAM_PLACEHOLDER%" ] }
, { "Sid": "ReadInputStream", "Effect": "Allow", "Action": "kinesis:*", "Resource": "arn:aws:kinesis:us-west-2:012345678901:stream/ExampleInputStream" }, { "Sid": "WriteObjects", "Effect": "Allow", "Action": [ "s3:Abort*", "s3:DeleteObject*", "s3:GetObject*", "s3:GetBucket*", "s3:List*", "s3:ListBucket", "s3:PutObject" ], "Resource": [ "arn:aws:s3:::ka-app-<username>", "arn:aws:s3:::ka-app-<username>/*" ] }
] }
配置应用程序
-
在 MyApplication (我的应用程序) 页面上,选择 Configure (配置)。
-
在 Configure application (配置应用程序) 页面上,提供 Code location (代码位置):
-
适用于Amazon S3 存储桶输入,
ka-app-
.<username>
-
适用于Amazon S3 对象的路径输入,
code/aws-kinesis-analytics-java-apps-1.0.jar
.
-
-
在 Access to application resources (对应用程序的访问权限) 下,对于 Access permissions (访问权限),选择 Create / update IAM role (创建/更新 IAM 角色)
kinesis-analytics-MyApplication-us-west-2
。 -
在 Monitoring (监控) 下,确保 Monitoring metrics level (监控指标级别) 设置为 Application (应用程序)。
-
对于 CloudWatch logging (CloudWatch 日志记录),选中启用复选框。
-
选择 Update(更新)。
当你选择启用时 CloudWatch 日志记录时,Kinesis Data Analytics 将为您创建日志组和日志流。这些资源的名称如下所示:
-
日志组:
/aws/kinesis-analytics/MyApplication
-
日志流:
kinesis-analytics-log-stream
该日志流用于监控应用程序。这与应用程序用于发送结果的日志流不同。
运行应用程序
-
在 MyApplication (我的应用程序) 页面上,选择 Run (运行)。离开运行时没有快照选择选项,然后确认操作。
-
当应用程序正在运行时,请刷新页面。控制台将显示 Application graph (应用程序图表)。
验证应用程序输出
在 Amazon S3 控制台中,打开数据S3 存储桶中的文件夹。
几分钟后,将显示包含来自应用程序的聚合数据的对象。
可选:自定义源代码和接收器
在本节中,您将自定义源对象和汇对象的设置。
更改以下各节中描述的代码部分后,请执行以下操作以重新加载应用程序代码:
-
重复编译应用程序代码部分来编译更新的应用程序代码。
-
重复上传 Apache Flink 流式处理 Java 代码部分以上传更新的应用程序代码。
-
在控制台上的应用程序页面上,选择配置然后选择更新将更新的应用程序代码重新加载到应用程序中
配置数据分区
在本节中,您将配置流式文件接收器在 S3 存储桶中创建的文件夹的名称。您可以通过将存储桶分配器添加到流文件接收器来完成此操作。
要自定义在 S3 存储桶中创建的文件夹名称,请执行以下操作:
-
将以下导入语句添加到
S3StreamingSinkJob.java
file:import org.apache.flink.streaming.api.functions.sink.filesystem.rollingpolicies.DefaultRollingPolicy; import org.apache.flink.streaming.api.functions.sink.filesystem.bucketassigners.DateTimeBucketAssigner;
-
更新
createS3SinkFromStaticConfig()
方法看起来与以下内容类似:private static StreamingFileSink<String> createS3SinkFromStaticConfig() { final StreamingFileSink<String> sink = StreamingFileSink .forRowFormat(new Path(s3SinkPath), new SimpleStringEncoder<String>("UTF-8"))
.withBucketAssigner(new DateTimeBucketAssigner("yyyy-MM-dd--HH")) .withRollingPolicy(DefaultRollingPolicy.create().build())
.build(); return sink; }
前面的代码示例使用DateTimeBucketAssigner
使用自定义日期格式以在 S3 存储桶中创建文件夹。这些区域有:DateTimeBucketAssigner
使用当前系统时间创建存储桶名称。如果您想创建自定义存储桶分配器以进一步自定义创建的文件夹名称,则可以创建一个实现的类BucketAssergetBucketId
方法。
自定义实现BucketAssigner
可以使用上下文
配置读取频率
在本节中,您配置源流的读取频率。
默认情况下,Kinesis Streams 消费者每秒从源流中读取 5 次。如果有多个客户端从流中读取,或者应用程序需要重试读取记录,则此频率将导致问题。您可以通过设置消费者的读取频率来避免这些问题。
要设置 Kinesis 消费者的读取频率,您可以设置SHARD_GETRECORDS_INTERVAL_MILLIS
设置。
以下代码示例设置SHARD_GETRECORDS_INTERVAL_MILLIS
设置为 1 秒钟:
kinesisConsumerConfig.setProperty(ConsumerConfigConstants.SHARD_GETRECORDS_INTERVAL_MILLIS, "1000");
配置写入缓冲
在本节中,您将配置接收器的写入频率和其他设置。
默认情况下,应用程序每分钟向目标存储桶写入一次。您可以通过配置DefaultRollingPolicy
对象。
Apache Flink 流文件接收器每次应用程序创建检查点时都会写入其输出存储桶。默认情况下,应用程序每分钟创建检查点。要增加 S3 接收器的写入间隔,还必须增加检查点间隔。
配置DefaultRollingPolicy
对象,执行以下操作:
-
增加应用程序
CheckpointInterval
设置。以下输入UpdateApplication操作将检查点时间间隔设置为 10 分钟:{ "ApplicationConfigurationUpdate": { "FlinkApplicationConfigurationUpdate": { "CheckpointConfigurationUpdate": { "ConfigurationTypeUpdate" : "CUSTOM", "CheckpointIntervalUpdate": 600000 } } }, "ApplicationName": "MyApplication", "CurrentApplicationVersionId":
5
}要使用上述代码,请指定当前的应用程序版本。您可以使用ListApplicationsaction.
-
将以下导入语句添加到
S3StreamingSinkJob.java
file:import java.util.concurrent.TimeUnit;
-
更新
createS3SinkFromStaticConfig
中的方法S3StreamingSinkJob.java
文件与以下内容类似:private static StreamingFileSink<String> createS3SinkFromStaticConfig() { final StreamingFileSink<String> sink = StreamingFileSink .forRowFormat(new Path(s3SinkPath), new SimpleStringEncoder<String>("UTF-8"))
.withBucketAssigner(new DateTimeBucketAssigner("yyyy-MM-dd--HH")) .withRollingPolicy( DefaultRollingPolicy.create() .withRolloverInterval(TimeUnit.MINUTES.toMillis(8)) .withInactivityInterval(TimeUnit.MINUTES.toMillis(5)) .withMaxPartSize(1024 * 1024 * 1024) .build())
.build(); return sink; }前面的代码示例将写入 Amazon S3 存储桶的频率设置为 8 分钟。
有关配置 Apache Flink 流文件接收器的更多信息,请参阅行编码格式
清理 Amazon 资源
本节包含清理过程Amazon您在 Amazon S3 教程中创建的资源。
删除 Kinesis Data Analytics 应用程序
打开 Kinesis Data Analytics 控制台https://console.aws.amazon.com/kinesisanalytics
. -
在 Kinesis Data Analytics 面板中,选择MyApplication.
-
在应用程序页面中,选择Delete然后确认删除。
删除 Kinesis 数据流
打开 Kinesis 控制台,网址为:https://console.aws.amazon.com/kinesis
。 -
在 Kinesis Data Streams 面板中,选择示例输入流.
-
在存储库的示例输入流页面,选择删除 Kinesis Streams然后确认删除。
删除 Amazon S3 对象和存储桶
通过以下网址打开 Simple Storage Service(Amazon S3)控制台:https://console.aws.amazon.com/s3/
。 -
选择 ka-app-
<username>
存储桶。 -
选择 Delete (删除),然后输入存储桶名称以确认删除。
删除 IAM 资源
通过以下网址打开 IAM 控制台:https://console.aws.amazon.com/iam/
。 -
在导航栏上,选择策略.
-
在筛选条件控件中,输入 kinesis。
-
选择 kinesis-analytics-service-MyApplication-
<您的区域>
策略。 -
选择 Policy Actions (策略操作),然后选择 Delete (删除)。
-
在导航栏上,选择角色.
-
选择 kinesis-analytics-MyApplication-
<您的区域>
角色。 -
选择 Delete role (删除角色),然后确认删除。
删除 CloudWatch 资源
打开 CloudWatch 控制台https://console.aws.amazon.com/cloudwatch/
. -
在导航栏上,选择日志.
-
选择 /aws/kinesis-analytics/MyApplication 日志组。
-
选择 Delete Log Group (删除日志组),然后确认删除。