本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
为 Firehose 流选择来源和目的地
打开 Firehose 控制台,网址为。https://console.aws.amazon.com/firehose/
-
选择创建 Firehose 流。
-
在创建 Firehose 流页面上,从以下选项中选择一个 Firehose 流的来源。
-
直接 PUT — 选择此选项可创建制作者应用程序直接写入的 Firehose 流。以下是在 Amazon Data Firehose PUT 中与 Direct 集成的服务、代理和开源服务的列表。 Amazon 此列表并非详尽无遗,可能还有其他服务可用于将数据直接发送到 Firehose。
-
Amazon SDK
-
Amazon Lambda
-
Amazon CloudWatch 日志
-
Amazon CloudWatch 大事记
-
Amazon 云指标流
-
Amazon 物联网
-
Amazon Eventbridge
-
Amazon Simple Email Service
-
Amazon SNS
-
Amazon WAF网络ACL日志
-
Amazon API Gateway-访问日志
-
Amazon Pinpoint
-
亚马逊MSK经纪人日志
-
Amazon Route 53 Resolver 查询日志
-
Amazon 网络防火墙警报日志
-
Amazon Network Fireall 流日志
-
亚马逊 Elasticache Redis SLOWLOG
-
Kinesis Agent(linux)
-
Kinesis Tap(windows)
-
Flientbit
-
Fluentd
-
Apache Nifi
-
Snowflake
-
-
Amazon Kinesis Data Streams:选择此选项,以配置使用 Kinesis 数据流作为数据来源的 Firehose 流。然后,您可以使用 Firehose 从现有 Kinesis 数据流轻松读取数据,并将其加载到目的地。有关使用 Kinesis Data Streams 作为数据来源的更多信息,请参阅使用 Kinesis Data Streams 将数据发送到 Firehose。
-
亚马逊 MSK — 选择此选项可配置使用亚马逊MSK作为数据源的 Firehose 流。然后,您可以使用 Firehose 轻松地从现有 Amazon MSK 集群中读取数据并将其加载到指定的 S3 存储桶中。有关更多信息,请参阅使用亚马逊向 Firehose 直播发送数据。MSK
-
从 Firehose 支持的以下目的地之一中为您的 Firehose 流选择一个目的地。
-
亚马逊 OpenSearch 服务
-
Amazon OpenSearch 无服务器
-
Amazon Redshift
-
Amazon S3
-
Apache Iceberg 表
-
Coralogix
-
Datadog
-
Dynatrace
-
弹性
-
HTTP端点
-
Honeycomb
-
Logic Monitor
-
Logz.io
-
MongoDB Cloud
-
New Relic
-
Splunk
-
Splunk Observability Cloud
-
Sumo Logic
-
Snowflake
-
-
对于 Firehose 流名称,您可以使用控制台为您生成的名称,也可以添加您选择的 Firehose 流。