Batch 加载最佳实践 - Amazon Timestream
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

从2025年6月20日起,亚马逊Timestream版 LiveAnalytics 将不再向新客户开放。如果您想使用亚马逊 Timestream LiveAnalytics,请在该日期之前注册。现有客户可以继续照常使用该服务。有关更多信息,请参阅 Amazon Timestream 以了解 LiveAnalytics 可用性变更。

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

Batch 加载最佳实践

在遵守以下条件和建议时,Batch 加载效果最佳(高吞吐量):

  1. 提交供摄取的 CSV 文件很小,特别是文件大小为 100 MB—1 GB,以提高并行性和摄取速度。

  2. 在批量加载过程中,避免将数据同时提取到同一个表中(例如使用 WriteRecords API 操作或计划查询)。这可能会导致限制,并且批量加载任务将失败。

  3. 在批处理加载任务运行时,请勿在批量加载中使用的 S3 存储桶中添加、修改或删除文件。

  4. 请勿从表或源中删除或撤消权限,也不要报告已计划或正在执行批量加载任务的 S3 存储桶。

  5. 摄取具有高基数维度值集的数据时,请按照中的指导进行操作。对多度量记录进行分区的建议

  6. 请务必通过提交一个小文件来测试数据的正确性。无论数据是否正确,您都需要为提交到批量加载的任何数据付费。有关定价的更多信息,请参阅亚马逊 Timestream 定价。

  7. 除非低于 250,否则ActiveMagneticStorePartitions不要恢复批量加载任务。作业可能会受到限制并失败。同时为同一个数据库提交多个作业应该可以减少数量。

以下是控制台最佳实践:

  1. 仅使用构建器进行更简单的数据建模,即多度量记录仅使用一个度量名称。

  2. 要进行更复杂的数据建模,请使用 JSON。例如,当您在使用多度量记录时使用多个度量名称时,请使用 JSON。

有关 LiveAnalytics 最佳实践的更多信息 Timestream,请参阅最佳实践