Batch 加载最佳实践 - Amazon Timestream
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

Batch 加载最佳实践

在遵守以下条件和建议时,Batch 加载效果最佳(高吞吐量):

  1. 提交供摄取的 CSV 文件很小,特别是文件大小为 100 MB—1 GB,以提高并行性和摄取速度。

  2. 在批量加载过程中,避免将数据同时提取到同一个表中(例如使用 WriteRecords API 操作或计划查询)。这可能会导致限制,并且批量加载任务将失败。

  3. 在批处理加载任务运行时,请勿在批量加载中使用的 S3 存储桶中添加、修改或删除文件。

  4. 请勿从表或源中删除或撤消权限,也不要报告已计划或正在执行批量加载任务的 S3 存储桶。

  5. 摄取具有高基数维度值集的数据时,请按照中的指导进行操作。对多度量记录进行分区的建议

  6. 请务必通过提交一个小文件来测试数据的正确性。无论数据是否正确,您都需要为提交到批量加载的任何数据付费。有关定价的更多信息,请参阅亚马逊 Timestream 定价。

  7. 除非低于 250,否则ActiveMagneticStorePartitions不要恢复批量加载任务。该作业可能会受到限制并失败。同时为同一个数据库提交多个作业应该可以减少数量。

以下是控制台最佳实践:

  1. 仅使用构建器进行更简单的数据建模,即多度量记录仅使用一个度量名称。

  2. 要进行更复杂的数据建模,请使用 JSON。例如,当您在使用多度量记录时使用多个度量名称时,请使用 JSON。

有关 LiveAnalytics 最佳实践的更多信息 Timestream,请参阅最佳实践