批量加载先决条件 - Amazon Timestream
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

要获得与亚马逊 Timestream 类似的功能 LiveAnalytics,可以考虑适用于 InfluxDB 的亚马逊 Timestream。适用于 InfluxDB 的 Amazon Timestream 提供简化的数据摄取和个位数毫秒级的查询响应时间,以实现实时分析。点击此处了解更多信息。

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

批量加载先决条件

这是使用批量加载的先决条件列表。有关最佳实践,请参阅批量加载最佳实践

  • 批量加载源数据以带有标题的 CSV 格式存储在 Amazon S3 中。

  • 对于每个 Amazon S3 源存储桶,您必须在附加策略中具备以下权限:

    "s3:GetObject", "s3:GetBucketAcl" "s3:ListBucket"

    同样,对于写入报告的每个 Amazon S3 输出存储桶,您必须在附加策略中具备以下权限:

    "s3:PutObject", "s3:GetBucketAcl"

    例如:

    JSON
    { "Version":"2012-10-17", "Statement": [ { "Action": [ "s3:GetObject", "s3:GetBucketAcl", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::amzn-s3-demo-source-bucket1\u201d", "arn:aws:s3:::amzn-s3-demo-source-bucket2\u201d" ], "Effect": "Allow" }, { "Action": [ "s3:PutObject", "s3:GetBucketAcl" ], "Resource": [ "arn:aws:s3:::amzn-s3-demo-destination-bucket\u201d" ], "Effect": "Allow" } ] }
  • timestream for 通过将数据模型中提供的信息映射到 CSV 标头来 LiveAnalytics 解析 CSV。数据必须包含一个代表时间戳的列、至少一个维度列以及至少一个度量列。

  • 用于批量加载的 S3 存储桶必须与用于批量加载的 LiveAnalytics 表的 Timestream 位于同一区域,并且来自同一账户。

  • timestamp 列必须是长数据类型,表示自 Unix epoch 以来的时间。例如,时间戳 2021-03-25T08:45:21Z 将表示为 1616661921。Timestream 支持秒、毫秒、微秒和纳秒作为时间戳的精度单位。使用查询语言时,可通过 to_unixtime 等函数在不同格式之间进行转换。有关更多信息,请参阅日期/时间函数

  • Timestream 支持字符串数据类型用于维度值。Timestream 支持长整型、双精度、字符串和布尔值数据类型用于度量列。

有关批量加载限制和限额,请参阅批量加载