创建批量导入任务 (Amazon CLI) - Amazon IoT SiteWise
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

创建批量导入任务 (Amazon CLI)

您可以使用 CreateBulkImportJobAPI 操作将数据从 Amazon S3 传输到Amazon IoT SiteWise。下面的示例使用了 Amazon CLI。

重要

在创建批量导Amazon IoT SiteWise入任务之前,您必须启用将数据导出到 Amazon S3 的功能。有关如何配置存储设置的更多信息,请参阅配置存储设置

运行以下命令。将文件名替换为包含批量导入任务配置的文件的名称。

aws iotsitewise create-bulk-import-job --cli-input-json file://file-name.json
例 批量导入任务配置
  • error-bucket 替换为 Amazon S3 存储桶的名称,将替换为将与该批量导入任务相关的错误发送到该存储桶的名称。

  • 替换为 Amazon S3 存储桶的前缀,error-bucket-prefix与该批量导入任务相关的错误将发送到该存储桶的前缀。

    Amazon S3 使用前缀作为文件夹名称来组织存储桶中的数据。每个 Amazon S3 对象都有一个键,作为对象在桶中的唯一标识符。桶内的每个对象都只能有一个键。前缀必须以正斜杠(/)结尾。有关更多信息,请参阅《Amazon Simple Storage 用户指南》中的使用前缀组织对象

  • 数据桶替换为导入数据的 Amazon S3 存储桶的名称。

  • data-bucket-key替换为包含您的数据的 Amazon S3 对象的密钥。每个对象都有一个作为唯一标识符的键。每个对象有且只有一个键。

  • data-bucket-version-id替换为版本 ID 以识别包含您的数据的 Amazon S3 对象的特定版本。此参数为可选项。

  • 列名替换为 .csv 文件中指定的列名。

  • 使用标识批量导入任务的唯一名称替换作业名称。

  • job-role-arn替换为允许Amazon IoT SiteWise读取 Amazon S3 数据的 IAM 角色。

    注意

    确保您的角色具有以下示例中显示的权限。将数据桶替换为包含您的数据的 Amazon S3 存储桶的名称,将错误存储桶替换为将与此批量导入任务相关的错误发送到的 Amazon S3 存储桶的名称。

    { "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::data-bucket", "arn:aws:s3:::data-bucket/*", ], "Effect": "Allow" }, { "Action": [ "s3:PutObject", "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::error-bucket", "arn:aws:s3:::error-bucket/*" ], "Effect": "Allow" } ] }
{ "errorReportLocation": { "bucket": "error-bucket", "prefix": "error-bucket-prefix" }, "files": [ { "bucket": "data-bucket", "key": "data-bucket-key", "versionId": "data-bucket-version-id" } ], "jobConfiguration": { "fileFormat": { "csv": { "columnNames": [ "column-name" ] } } }, "jobName": "job-name", "jobRoleArn": "job-role-arn" }
例 response
{ "jobId":"f8c031d0-01d1-4b94-90b1-afe8bb93b7e5", "jobStatus":"PENDING", "jobName":"myBulkImportJob" }