本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
创建批量导入任务 (Amazon CLI)
您可以使用 CreateBulkImportJobAPI 操作将数据从 Amazon S3 传输到Amazon IoT SiteWise。下面的示例使用了 Amazon CLI。
重要
在创建批量导Amazon IoT SiteWise入任务之前,必须启用将数据导出到 Amazon S3 的权限。有关如何配置存储设置的更多信息,请参阅配置存储设置。
运行以下命令。将文件名
替换为包含批量导入任务配置的文件的名称。
aws iotsitewise create-bulk-import-job --cli-input-json file://
file-name
.json
例 批量导入任务配置
-
将
error-buckuck
et 替换为 Amazon S3 存储桶的名称,将与该批量导入任务相关的错误发送到该存储桶的名称。 -
替换为
error-bucket-prefix
Amazon S3 存储桶的前缀,与该批量导入任务相关的错误会发送到该存储桶。Amazon S3 使用前缀作为文件夹名称来组织存储桶中的数据。每个 Amazon S3 对象都有一个键,作为对象在桶中的唯一标识符。桶内的每个对象都只能有一个键。前缀必须以正斜杠(/)结尾。有关更多信息,请参阅《Amazon Sim ple StorageStor age Storage Storage Storage Stor age
-
将
数据桶
替换为从中导入数据的 Amazon S3 存储桶的名称。 -
data-bucket-key
替换为包含您的数据的 Amazon S3 对象的密钥。每个对象都有一个作为唯一标识符的键。每个对象有且只有一个键。 -
data-bucket-version-id
替换为版本 ID 以标识包含您的数据的 Amazon S3 对象的特定版本。此参数为可选项。 -
将
列名
替换为.csv 文件中指定的列名。 -
将
作业名称
替换为标识批量导入任务的唯一名称。 -
job-role-arn
替换为允许Amazon IoT SiteWise读取 Amazon S3 数据的 IAM 角色。注意
确保您的角色具有以下示例中显示的权限。将
数据存储桶
替换为包含您的数据的 Amazon S3 存储桶的名称,将错误存储桶
替换为 Amazon S3 存储桶的名称,与该批量导入任务相关的错误会发送到该存储桶。{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::
data-bucket
", "arn:aws:s3:::data-bucket
/*", ], "Effect": "Allow" }, { "Action": [ "s3:PutObject", "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::error-bucket
", "arn:aws:s3:::error-bucket
/*" ], "Effect": "Allow" } ] }
{ "errorReportLocation": { "bucket": "
error-bucket
", "prefix": "error-bucket-prefix
" }, "files": [ { "bucket": "data-bucket
", "key": "data-bucket-key
", "versionId": "data-bucket-version-id
" } ], "jobConfiguration": { "fileFormat": { "csv": { "columnNames": [ "column-name
" ] } } }, "jobName": "job-name
", "jobRoleArn": "job-role-arn
" }
例 response
{ "jobId":"f8c031d0-01d1-4b94-90b1-afe8bb93b7e5", "jobStatus":"PENDING", "jobName":"myBulkImportJob" }