为 Firehose 流选择来源和目的地 - Amazon Data Firehose
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

为 Firehose 流选择来源和目的地

  1. https://console.aws.amazon.com/firehose/ 中打开 Firehose 控制台。

  2. 选择创建 Firehose 流

  3. 创建 Firehose 流页面上,从以下选项中选择一个 Firehose 流的来源。

    • Direct PUT:选择此选项可创建 Firehose 流,供生产者应用程序直接写入。以下是与 Amazon Data Firehose 中的 Direct PUT 集成的 Amazon 服务、代理以及开源服务的列表。此列表并非详尽无遗,可能还有其他服务可用于将数据直接发送到 Firehose。

      • Amazon SDK

      • Amazon Lambda

      • Amazon CloudWatch Logs

      • Amazon CloudWatch Events

      • Amazon Cloud Metric Streams

      • Amazon IoT

      • Amazon Eventbridge

      • Amazon Simple Email Service

      • Amazon SNS

      • Amazon WAF web ACL logs

      • Amazon API Gateway - 访问日志

      • Amazon Pinpoint

      • Amazon MSK 代理日志

      • Amazon Route 53 Resolver 查询日志

      • Amazon Network Firewall 警报日志

      • Amazon Network Firewall 流日志

      • Amazon ElastiCache Redis SLOWLOG

      • Kinesis Agent(linux)

      • Kinesis Tap(windows)

      • Flientbit

      • Fluentd

      • Apache Nifi

      • Snowflake

    • Amazon Kinesis Data Streams:选择此选项,以配置使用 Kinesis 数据流作为数据来源的 Firehose 流。然后,您可以使用 Firehose 从现有 Kinesis 数据流轻松读取数据,并将其加载到目的地。有关使用 Kinesis Data Streams 作为数据来源的更多信息,请参阅使用 Kinesis Data Streams 将数据发送到 Firehose

    • Amazon MSK:选择此选项,以配置使用 Amazon MSK 作为数据来源的 Firehose 流。然后,您可以使用 Firehose,从现有 Amazon MSK 集群轻松读取数据,并将其加载到指定的 S3 存储桶。有关更多信息,请参阅使用 Amazon MSK 将数据发送到 Firehose 流

  4. 从 Firehose 支持的以下目的地之一中为您的 Firehose 流选择一个目的地。

    • Amazon OpenSearch Service

    • Amazon OpenSearch 无服务器

    • Amazon Redshift

    • Amazon S3

    • Apache Iceberg 表

    • Coralogix

    • Datadog

    • Dynatrace

    • 弹性

    • HTTP 端点

    • Honeycomb

    • Logic Monitor

    • Logz.io

    • MongoDB Cloud

    • New Relic

    • Splunk

    • Splunk Observability Cloud

    • Sumo Logic

    • Snowflake

  5. 对于 Firehose 流名称,您可以使用控制台为您生成的名称,也可以添加您选择的 Firehose 流。