本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
来源、目的地和名称
登录到 Amazon Web Services Management Console,然后通过以下网址打开 Kinesis 控制台:https://console.aws.amazon.com/kinesisvideo/home
。 -
在导航窗格中选择 Data Firehose (数据 Firehose)。
-
选择 Create delivery stream (创建传输流)。
-
输入以下字段的值:
- 源
-
-
Direct PUT:选择此选项可创建 Kinesis Data Firehose 传输流,生产者应用程序可直接写入该传输流。目前,以下是Amazon与 Kinesis Data Firehose 中的 Direct PUT 集成的服务和代理以及开源服务:
-
Amazon SDK
-
Amazon Lambda
-
Amazon云端监视日志
-
Amazon云端观看活动
-
Amazon云指标流
-
Amazon物联网
-
AmazonEventbridge
-
Amazon SNS
-
AmazonWAF 网页 ACL 日志
-
Amazon API Gateway-访问日志
-
Amazon Pinpoint
-
Amazon MSK
-
Amazon Route 53 Resolver
-
AmazonNetwork Firewall 警报日志
-
AmazonNetwork Firewall 流量日志
-
亚马逊 Elasticache Redis 慢点日志
-
Kinesis 代理人 (linux)
-
Kinesis Tap(窗口)
-
Fluentbit
-
Fluentd
-
Apache Nifi
-
-
Kinesis 直播:选择此选项可配置使用 Kinesis 数据流作为数据源的 Kinesis Data Firehose 传输流。然后,您可以使用 Kinesis Data Firehose 轻松地从现有 Kinesis 数据流中读取数据并将其加载到目的地。有关使用 Kinesis Data Streams 作为数据源的更多信息,请参阅使用 Kinesis Data Streams 写入亚马逊 Kinesis Data Firehos e。
-
- 传送流目的地
-
您的 Kinesis Data Firehose 传输流的目的地。Kinesis Data Firehose 可以发送数据记录到不同的目的地,包括 Amazon Simple Storage Service (Amazon S3)、Amazon OpenSearch Redshift、Amazon Service 以及您或您的任何第三方服务提供商拥有的任何 HTTP 终端节点 以下是支持的目的地:
-
亚马逊 OpenSearch 服务
-
亚马逊 OpenSearch 无服务器
-
Amazon Redshift
-
Amazon S3
-
Coralogix
-
Datadog
-
Dynatrace
-
灵活应变
-
HTTP Endpoint
-
蜂窝
-
逻辑监视器
-
Logz.io
-
MongoDB
-
新遗物
-
Splunk
-
Sumo Logic
-
- 传输流名称
-
您的 Kinesis Data Firehose 传输流的名称。