亚马逊 Data Firehose 以前被称为亚马逊 Kinesis Data Firehose
本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
源、目标和名称
登录 Amazon Web Services Management Console 并打开亚马逊 Data Firehose 控制台,网址为 https://console.aws.amazon.com/firehose
-
选择创建 Firehose 直播。
-
输入以下字段的值:
- 源
-
-
直接 PUT:选择此选项可创建制作者应用程序直接写入的 Firehose 流。目前,以下是 Amazon 与 Amazon Data Firehose 中的 Direct PUT 集成的服务、代理和开源服务:
-
Amazon SDK
-
Amazon Lambda
-
Amazon CloudWatch 日志
-
Amazon CloudWatch 活动
-
Amazon 云指标流
-
Amazon 物联网
-
Amazon Eventbridge
-
Amazon Simple Email Service
-
Amazon SNS
-
Amazon WAF 网络访问控制日志
-
Amazon API Gateway - 访问日志
-
Amazon Pinpoint
-
Amazon MSK 代理日志
-
Amazon Route 53 Resolver 查询日志
-
Amazon 网络防火墙警报日志
-
Amazon 网络防火墙流日志
-
Amazon Elasticache Redis SLOWLOG
-
Kinesis Agent(linux)
-
Kinesis Tap(windows)
-
Flientbit
-
Fluentd
-
Apache Nifi
-
Snowflake
-
-
Kinesis 流:选择此选项可配置使用 Kinesis 数据流作为数据源的 Firehose 流。然后,您可以使用 Amazon Data Firehose 轻松地从现有 Kinesis 数据流中读取数据并将其加载到目的地。有关使用 Kinesis Data St reams 作为数据源的更多信息,请参阅使用 Kinesis 数据流写入亚马逊数据 Firehose。
-
亚马逊 MSK:选择此选项可配置使用亚马逊 MSK 作为数据源的 Firehose 流。然后,您可以使用 Firehose 轻松地从现有 Amazon MSK 集群中读取数据并将其加载到指定的 S3 存储桶中。有关使用亚马逊 MSK 作为数据源的更多信息,请参阅使用亚马逊 MSK 写入亚马逊数据 Firehose。
-
- Firehose 直播目的地
-
你的 Firehose 直播的目的地。Amazon Data Firehose 可以将数据记录发送到各种目的地,包括亚马逊简单存储服务 (Amazon S3) Simple S3、Amazon Redshift、 OpenSearch 亚马逊服务以及您或您的任何第三方服务提供商拥有的任何 HTTP 终端节点。以下是支持的目标:
-
亚马逊 OpenSearch 服务
-
Amazon OpenSearch 无服务器
-
Amazon Redshift
-
Amazon S3
-
Coralogix
-
Datadog
-
Dynatrace
-
弹性
-
HTTP 端点
-
Honeycomb
-
Logic Monitor
-
Logz.io
-
MongoDB Cloud
-
New Relic
-
Splunk
-
Splunk Observability Cloud
-
Sumo Logic
-
Snowflake
-
- Firehose 直播名称
-
你的 Firehose 直播的名称。