本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
Batch 加载最佳实践
在遵守以下条件和建议时,Batch 加载效果最佳(高吞吐量):
-
提交供摄取的 CSV 文件很小,特别是文件大小为 100 MB—1 GB,以提高并行性和摄取速度。
-
在批量加载过程中,避免将数据同时提取到同一个表中(例如使用 WriteRecords API 操作或计划查询)。这可能会导致限制,并且批量加载任务将失败。
-
在批处理加载任务运行时,请勿在批量加载中使用的 S3 存储桶中添加、修改或删除文件。
-
请勿从表或源中删除或撤消权限,也不要报告已计划或正在执行批量加载任务的 S3 存储桶。
-
摄取具有高基数维度值集的数据时,请按照中的指导进行操作。对多度量记录进行分区的建议
-
请务必通过提交一个小文件来测试数据的正确性。无论数据是否正确,您都需要为提交到批量加载的任何数据付费。有关定价的更多信息,请参阅亚马逊 Timestream
定价。 -
除非低于 250,否则
ActiveMagneticStorePartitions
不要恢复批量加载任务。该作业可能会受到限制并失败。同时为同一个数据库提交多个作业应该可以减少数量。
以下是控制台最佳实践:
-
仅使用构建器进行更简单的数据建模,即多度量记录仅使用一个度量名称。
-
要进行更复杂的数据建模,请使用 JSON。例如,当您在使用多度量记录时使用多个度量名称时,请使用 JSON。
有关 LiveAnalytics 最佳实践的更多信息 Timestream,请参阅最佳实践。