

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 刷新 Amazon Quick Sight 的数据
<a name="refreshing-data"></a>

刷新数据时，Amazon Quick Sight 会根据连接属性和数据的存储位置以不同的方式处理数据集。

如果 Quick Sight 使用直接查询连接到数据存储，则当您打开关联的数据集、分析或仪表板时，数据会自动刷新。筛选条件控件每 24 小时自动刷新一次。

要刷新SPICE数据集，Quick Sight 必须使用存储的凭据独立进行身份验证才能连接到数据。Quick Sight 无法刷新手动上传的数据（即使从 S3 存储桶中也是如此SPICE），因为 Quick Sight 不存储其连接和位置元数据。如果要自动刷新存储在 S3 存储桶中的数据，请使用 **S3** 数据来源卡片创建数据集。

对于手动上传到 SPICE 的文件，可以通过再次导入文件来手动刷新这些文件。如果要为新文件重复使用原始数据集的名称，请先重命名或删除原始数据集。然后为新数据集指定首选名称。此外，请检查各个字段名称的名称和数据类型是否相同。打开您的分析，然后用新的数据集替换原始数据集。有关更多信息，请参阅 [替换数据集](replacing-data-sets.md)。

您可以随时刷新 [SPICE](spice.md) 数据集。刷新会再次将数据导入 SPICE，因此，数据将包含自上次导入以来的所有更改。

对于 Amazon Quick Sight 标准版，您可以随时对SPICE数据进行完全刷新。对于 Amazon Quick Sight 企业版，您可以随时进行完全刷新或增量刷新（仅限基于 SQL 的数据源）。

**注意**  
如果数据集使用 CustomSQL，则增量刷新可能不会让您受益。如果 SQL 查询很复杂，则数据库可能无法通过回顾时间窗口优化筛选条件。这可能会导致提取数据的查询比完全刷新所需的时间更长。我们建议您尝试通过重构自定义 SQL 来缩短查询执行时间。请注意，结果可能会因您作优化的类型而异。

您可以使用以下任何一种方法刷新 SPICE 数据：
+ 您可以使用**数据集**页面上的选项。
+ 您可以在编辑数据集的同时刷新数据集。
+ 您可以在数据集设置中计划刷新。
+ 您可以使用 [CreateIngestion](https://docs.amazonaws.cn/quicksight/latest/APIReference/API_CreateIngestion.html)API 操作刷新数据。

创建或编辑 SPICE 数据集时，可以启用有关数据加载状态的电子邮件通知。如果数据加载或刷新失败，此选项会通知数据集的拥有者。要开启通知，请选择**完成数据集创建**屏幕上显示的**刷新失败时向拥有者发送电子邮件**选项。此选项不适用于您在数据集页面上使用**上传文件**创建的数据集。

在以下主题中，您可以了解有关刷新和使用 SPICE 数据的不同方法的说明。

**Topics**
+ [

# 将数据导入到 SPICE
](spice.md)
+ [

# 刷新 SPICE 数据
](refreshing-imported-data.md)
+ [

# 在分析中使用 SPICE 数据
](spice-in-an-analysis.md)
+ [

# 查看 SPICE 摄取历史记录
](view-history-of-spice-ingestion.md)
+ [

# 对跳过行错误进行问题排查
](troubleshooting-skipped-rows.md)
+ [

# SPICE 摄取错误代码
](errors-spice-ingestion.md)
+ [

# 更新数据集中的文件
](updating-file-dataset.md)

# 将数据导入到 SPICE
<a name="spice"></a>

当您将数据导入数据集而不是使用直接 SQL 查询时，*SPICE数据会因为其存储方式而变成数据*。 *SPICE (Super-fast, Parallel, In-memory Calculation Engine)*是 Amazon Quick Sight 使用的强大内存引擎。该引擎设计为快速执行高级计算及快速提供数据。在企业版中，SPICE 中存储的数据采用静态加密。

创建或编辑数据集时，除非数据集包含已上传的文件，否则您可以选择使用 SPICE 或直接查询。将数据导入（也称为*摄取*）SPICE 可以节省时间和金钱：
+ 分析查询处理速度加快。
+ 无需等待直接查询处理完成。
+ 存储在 SPICE 中的数据可以多次重复使用，而不会产生额外成本。如果您使用的数据来源按查询收费，则在首次创建数据集时以及稍后刷新数据集时，您需要支付查询数据的费用。

SPICE分别为每个容量分配 Amazon Web Services 区域。默认SPICE容量会自动分配给您的房屋 Amazon Web Services 区域。对于每个 Amazon 账户，SPICE容量由所有使用 Quick Sight 的用户在一个账户中共享 Amazon Web Services 区域。除非你选择购买一些，否则另一个 Amazon Web Services 区域 没有SPICE容量。Quick Sight 管理员可以查看每个[SPICE](#spice)容量中有多少 Amazon Web Services 区域 以及其中有多少当前正在使用中。Quick Sight 管理员可以根据需要购买更多SPICE容量或释放未使用的SPICE容量。有关更多信息，请参阅 [配置SPICE内存容量](managing-spice-capacity.md)。

**Topics**
+ [

## 估计 SPICE 数据集的大小
](#spice-capacity-formula)

## 估计 SPICE 数据集的大小
<a name="spice-capacity-formula"></a>

SPICE相对于您的 Quick 账户SPICE容量而言，数据集的大小称为*逻辑大小*。数据集的逻辑大小与数据集的源文件或表的大小不同。数据集的逻辑大小的计算发生在数据准备期间定义所有数据类型转换和计算列之后。这些字段在 SPICE 中以增强查询性能的方式实现。您在分析中所做的任何更改都不会影响 SPICE 中数据的逻辑大小。只有在数据集中保存的更改才能应用到 SPICE 容量。

SPICE 数据集的逻辑大小取决于数据集字段的数据类型和数据集中的行数。三种类型的 SPICE 数据是小数、日期和字符串。您可以在数据准备阶段转换字段的数据类型以满足您的数据可视化需求。例如，您要导入的文件可能包含所有字符串（文本）。但为了在分析中以有意义的方式使用这些数据，可以通过将数据类型更改为适当的形式来准备数据。包含价格的字段可以从字符串更改为小数，而包含日期的字段可以从字符串更改为日期。您还可以创建计算字段并从源表中排除不需要的字段。当您完成数据集的准备并且所有转换完成后，您可以估算最终模式的逻辑大小。

**注意**  
地理空间数据类型使用元数据来解释物理数据类型。经度和纬度都是数字。所有其他地理空间类别都是字符串。

在下面的公式中，小数和日期按每个单元格 8 个字节计算，并附加 4 个辅助字节。字符串是根据 UTF-8 编码的文本长度加上辅助的 24 个字节来计算的。字符串数据类型需要更多空间，因为 SPICE 需要额外的索引才能提供高查询性能。

```
Logical dataset size in bytes =
(Number of Numeric cells *  (12 bytes per cell))
+ (Number of Date cells    *  (12 bytes per cell))
+ SUM ((24 bytes + UTF-8 encoded length) per Text cell)
```

上面的公式仅应用于估算 SPICE 中单个数据集的大小。SPICE容量使用量是特定区域中一个账户中所有数据集的总大小。Quick Sight 不建议您使用此公式来估计 Quick Sight 账户使用的总SPICE容量。

# 刷新 SPICE 数据
<a name="refreshing-imported-data"></a>

## 刷新数据集
<a name="refresh-spice-data"></a>

使用以下过程在 “数据” 选项卡中根据 Amazon S3 或数据库数据源刷新**数据[SPICE](spice.md)**集。如果数据库中有架构更改，Quick Sight 将无法自动检测到它，从而导致摄取失败。编辑并保存数据集以更新架构并避免摄取失败。

**从 “SPICE数据” 选项卡刷新数据**

1. 从左侧导航菜单中选择 “**数据**”。在**数据集**选项卡中，选择要将其打开的数据集。

1. 在打开的数据集详细信息页面上，选择**刷新**选项卡，然后选择**立即刷新**。

1. 将刷新类型保留为**完全刷新**。

1. 如果刷新的是 Amazon S3 数据集，请为 **S3 清单**选择以下任一选项：
   + 要使用您上次向 Amazon Quick Sight 提供的相同**清单文件，请选择 “现有清单**”。如果您更改了位于上次提供的文件位置或 URL 处的清单文件，则返回数据将反映这些更改。
   + 要通过从本地网络上传新的清单文件来指定清单文件，请选择 **Upload Manifest**，然后选择 **Upload manifest file**。对于 **Open**，请选择一个文件，然后选择 **Open**。
   + 要提供 URL 以指定新的清单文件，请在 **Input manifest URL (输入清单 URL)** 中输入清单的 URL。您可以通过以下方式在 Amazon S3 控制台中找到清单文件 URL：打开清单文件的上下文菜单（单击右键），选择**属性**，然后查看**链接**框。

1. 选择**刷新**。

1. 如果刷新的是 Amazon S3 数据集，请选择**确定**，然后再次选择**确定**。

   如果刷新的是数据库数据集，请选择**确定**。

## 增量刷新数据集
<a name="refresh-spice-data-incremental"></a>


|  | 
| --- |
|  适用于：企业版  | 

对于基于 SQL 的数据来源，例如 Amazon Redshift、Amazon Athena、PostgreSQL 或 Snowflake，您可以在回顾时间窗口内增量刷新数据。

*增量刷新*仅查询数据集在指定的回顾时间窗口内定义的数据。它将该窗口的时间范围内对数据集进行的所有插入、删除和修改从其来源传输到数据集。该窗口中当前位于 SPICE 的数据将被删除并替换为新数据。

使用增量刷新后，每次刷新时查询和传输的数据会减少。例如，假设您有一个包含 18 万条记录的数据集，其中包括从 1 月 1 日到 6 月 30 日的数据。7 月 1 日，您对数据进行增量刷新，回顾时间窗口为七天。Quick Sight查询数据库，要求提供自6月24日（7天前）以来的所有数据，即7,000条记录。然后，Quick Sight删除6月24 SPICE 日及以后的当前数据，并追加新查询的数据。第二天（7月2日），Quick Sight也做了同样的事情，但是从6月25日开始查询（又是7,000条记录），然后从同一日期的现有数据集中删除。系统不必每天摄取 18 万条记录，而只需摄取 7,000 条记录。

使用以下过程从 “[SPICE](spice.md)数据集” 选项卡中增量刷新基于 SQL 数据源**的数据集**。

**增量刷新基于 SQL SPICE 的数据集**

1. 从左侧导航菜单中选择 “**数据**”。在**数据集**选项卡上，选择要将其打开的数据集。

1. 在打开的数据集详细信息页面上，选择**刷新**选项卡，然后选择**立即刷新**。

1. 对于**刷新类型**，选择**增量刷新**。

1. 如果这是您第一次对数据集进行增量刷新，请选择**配置**。

1. 在**配置增量刷新**页面上，执行以下操作：

   1. 对于**日期列**，选择回顾时间窗口所基于的日期列。

   1. 对于**窗口大小**，输入**大小**的数字，然后选择要回顾更改的时间长度。

      您可以选择刷新从现在开始的指定小时数、天数或周数内发生的数据更改。例如，您可以选择刷新在当前日期后两周内发生的数据更改。

1. 选择**提交**。

## 在数据准备期间刷新数据集
<a name="refresh-spice-data-prep"></a>

要在数据准备期间刷新基于 Amazon S3 或数据库数据来源的 [SPICE](spice.md) 数据集，请按照以下过程操作。

**在数据准备期间刷新 SPICE 数据**

1. 从左侧导航菜单中选择 “**数据**”。在**数据集**选项卡上，选择数据集，然后选择**编辑数据集**。

1. 在数据集屏幕上，选择**立即刷新**。

1. 将刷新类型设置为**完全刷新**。

1. （可选）如果刷新的是 Amazon S3 数据集，请为 **S3 清单**选择以下任一选项：
   + 要使用您上次提供给 Amazon Quick Sight 的**清单文件，请选择现有清单**。如果您更改了位于上次提供的文件位置或 URL 处的清单文件，则返回数据将反映这些更改。
   + 要通过从本地网络上传新的清单文件来指定清单文件，请选择 **Upload Manifest**，然后选择 **Upload manifest file**。对于 **Open**，请选择一个文件，然后选择 **Open**。
   + 要提供 URL 以指定新的清单文件，请在 **Input manifest URL (输入清单 URL)** 中输入清单的 URL。您可以通过以下方式在 Amazon S3 控制台中找到清单文件 URL：打开清单文件的上下文菜单（单击右键），选择**属性**，然后查看**链接**框。

1. 选择**刷新**。

1. 如果刷新的是 Amazon S3 数据集，请选择**确定**，然后再次选择**确定**。

   如果刷新的是数据库数据集，请选择**确定**。

## 按计划刷新数据集
<a name="schedule-data-refresh"></a>

要计划刷新数据，请按照以下过程操作。如果数据集基于直接查询而未存储在 [SPICE](spice.md) 中，您可以打开数据集以刷新数据。您也可以刷新分析或控制面板中的页面以刷新数据。

**按计划刷新 [SPICE](spice.md) 数据**

1. 从左侧导航菜单中选择 “**数据**”。在**数据集**选项卡上，选择要将其打开的数据集。

1. 在打开的数据集详细信息页面上，选择**刷新**选项卡，然后选择**添加新计划**。

1. 在**创建刷新计划**屏幕上，为您的计划选择各项设置：

   1. 对于 **Time zone (时区)**，选择适用于数据刷新的时区。

   1. 对于**开始时间**，选择刷新开始日期和时间。使用 HH:MM 和 24 小时格式，例如，13:30。

   1. 对于**频率**，选择以下任一选项：
      + 对于 Standard 或 Enterprise 版，您可以选择 **Daily（每天）**、**Weekly（每周）**或 **Monthly（每月）**。
        + **每天**：每天重复。
        + **每周**：在每周的同一天重复。
        + **Monthly**：在每月的同一天重复。要在每月的 29、30 或 31 日刷新数据，请从列表中选择 **Last day of month**。
      + 对于 Enterprise 版，您可以选择 **Hourly（每小时）**。此设置将从您选择的时间开始每小时刷新一次您的数据集。因此，如果您选择 1:05 作为开始时间，数据将每个小时刷新一次，刷新时间为整点的五分钟后。

        如果您决定使用每小时刷新，则无法同时使用额外的刷新计划。要创建每小时刷新计划，请删除该数据集的任何其他现有计划。此外，在创建每日、每周或每月计划之前，请删除任何现有的每小时计划。

1. 选择**保存**。

计划的数据集提取将在计划日期和时间的 10 分钟内进行。

使用 Quick 控制台，您可以为每个数据集创建五个计划。创建五个计划后，**创建**按钮会变成禁用状态。

## 按计划增量刷新数据集
<a name="schedule-data-refresh-incremental"></a>


|  | 
| --- |
|  适用于：企业版  | 

对于基于 SQL 的数据来源，例如 Amazon Redshift、Athena、PostgreSQL 或 Snowflake，您可以安排增量刷新。使用以下过程在 “[SPICE](spice.md)数据集” 选项卡中基于 SQL 数据源以增量方式刷新**数据集**。

**为基于 SQL 的 SPICE 数据集设置增量刷新计划**

1. 从左侧导航菜单中选择 “**数据**”。在**数据集**选项卡上，选择要将其打开的数据集。

1. 在打开的数据集详细信息页面上，选择**刷新**选项卡，然后选择**添加新计划**。

1. 在**创建计划**页面上，对于**刷新类型**，选择**增量刷新**。

1. 如果这是您对该数据集进行的首次增量刷新，请选择**配置**，然后执行以下操作：

   1. 对于**日期列**，选择回顾时间窗口所基于的日期列。

   1. 对于**窗口大小**，输入**大小**的数字，然后选择要回顾更改的时间长度。

      您可以选择刷新从现在开始的指定小时数、天数或周数内发生的数据更改。例如，您可以选择刷新在当前日期后两周内发生的数据更改。

   1. 选择**提交**。

1. 对于 **Time zone (时区)**，选择适用于数据刷新的时区。

1. 对于 **Repeats（重复）**，选择以下选项之一：
   + 您可以选择**每 15 分钟**、**每 30 分钟**、**每小时**、**每天**、**每周**或**每月**。
     + **每 15 分钟**：从您选择的时间开始，每 15 分钟重复一次。因此，如果您选择 1:05 作为开始时间，则数据将在 1:20 刷新，然后在 1:35 再次刷新，依此类推。
     + **每 30 分钟**：从您选择的时间开始，每 30 分钟重复一次。因此，如果您选择 1:05 作为开始时间，则数据将在 1:35 刷新，然后在 2:05 再次刷新，依此类推。
     + **每小时**：从您选择的时间开始，每小时重复一次。因此，如果您选择 1:05 作为开始时间，数据将每个小时刷新一次，刷新时间为整点的五分钟后。
     + **每天**：每天重复。
     + **每周**：在每周的同一天重复。
     + **Monthly**：在每月的同一天重复。要在每月的 29、30 或 31 日刷新数据，请从列表中选择 **Last day of month**。
   + 如果您决定使用每 15 或 30 分钟或每小时刷新，则无法同时使用额外的刷新计划。要按照每 15 分钟、每 30 分钟或每小时创建刷新计划，请移除该数据集的所有其他现有计划。此外，在创建每天、每周或每月计划之前，请删除任何现有的每分钟或小时计划。

1. 对于**开始**，选择刷新开始日期。

1. 对于**时间**，指定应开始刷新的时间。使用 HH:MM 和 24 小时格式，例如，13:30。

计划的数据集提取将在计划日期和时间的 10 分钟内进行。

在某些情况下，增量刷新数据集可能会出现问题，导致您想要回滚数据集。或者，您可能不想再增量刷新数据集。在这种情况下，您可以删除计划刷新。

为此，请在**数据集**页面上选择数据集，选择**计划刷新**，然后选择计划刷新右侧的 x 图标。删除增量刷新配置会启动完全刷新。作为此完全刷新的一部分，所有为增量刷新准备的配置都将被删除。

# 在分析中使用 SPICE 数据
<a name="spice-in-an-analysis"></a>

当您使用存储数据创建分析时，**字段列表**窗格顶部的数据集列表旁边会显示数据导入指示符。首次打开分析并导入数据集时，会出现一个微调图标。

SPICE 导入完成后，指示符将显示成功导入的行所占百分比。可视化窗格顶部还会显示一条消息，以提供导入和跳过的行数。

如果跳过了任何行，您可以在此消息栏中选择 **View summary**，以查看有关这些行无法导入的原因的详细信息。要编辑数据集并解决导致跳行的问题，请选择**编辑数据集**。有关跳行常见原因的更多信息，请参阅[对跳过行错误进行问题排查](troubleshooting-skipped-rows.md)。

如果导入完全失败，则数据导入指示符将显示为感叹号图标，并显示 **Import failed (导入失败)** 消息。

# 查看 SPICE 摄取历史记录
<a name="view-history-of-spice-ingestion"></a>

您可以查看 SPICE 数据集的摄取历史记录以了解一些信息，例如最近的摄取的开始时间及其状态。

SPICE 摄取历史记录页面包含以下信息：
+ 提取的开始日期和时间 (UTC)
+ 提取状态
+ 提取所花的时间
+ 数据集中聚合行的数量。
+ 刷新过程中摄取的数量。
+ 跳过的行和成功摄取的行（已导入）
+ 刷新的任务类型：计划、完全刷新等

要查看数据集的 SPICE 摄取历史记录，请按照以下过程操作。

**查看数据集的 SPICE 摄取历史记录**

1. 在主页上，选择左边**的数据**。

1. 在**数据集**选项卡上，选择要检查的数据集。

1. 在打开的数据集详细信息页面上，选择**刷新**选项卡。

   SPICE 摄取历史记录显示在底部。

1. （可选）选择一个时间范围以筛选从过去 1 小时到最近 90 天的条目。

1. （可选）选择一种特定的作业状态以筛选相应的条目，例如 **Running (正在运行)** 或 **Completed (已完成)**。否则，您可以选择 **All (全部)** 以查看所有条目。

# 对跳过行错误进行问题排查
<a name="troubleshooting-skipped-rows"></a>

当您导入数据时，Amazon Quick Sight 会预览您的部分数据。如果由于任何原因无法解释某行，Quick Sight 会跳过该行。在某些情况下，导入将失败。发生这种情况时，Quick Sight 会返回一条解释失败原因的错误消息。

幸运的是，可能出错的情况并不多。通过注意以下示例，可以避免某些问题：
+ 请确保字段数据类型与字段数据没有不一致，例如，具有数字数据类型的字段中偶尔会包含字符串数据的情况。以下是一些在扫描表格内容时可能难以检测到的示例：
  + `''` – 使用空字符串表示缺失值
  + `'NULL'` – 使用“null”词表示缺失值
  + `$1000` – 在货币值中包含美元符号会将其转换为字符串
  + `'O'Brien'` – 使用标点符号来标记本身包含相同标点符号的字符串。

  但是，这类错误并不总是那么容易发现，尤其是在数据量很大或数据是手动输入的情况下。例如，有些客户服务或销售应用程序需要输入客户口头提供的信息。最初输入数据的人可能以错误字段输入了数据。他们可能添加了字符或数字，或者忘记添加字符或数字。例如，他们可能输入了“0/10/12020”的日期，或者本应输入年龄的字段中输入性别。
+ 无论是否有标题，请确保正确处理导入的文件。如果有标题行，请确保选择**包含标题**上传选项。
+ 确保数据不超过一个或多个 [数据来源限额](data-source-limits.md)。
+ 确保数据与 [支持的数据类型和值](supported-data-types-and-values.md) 兼容。
+ 确保计算字段包含适用于计算的数据，而不是与计算字段中的函数不兼容或被函数排除在外。例如，如果您的数据集中有一个使用的计算字段[parseDate](parseDate-function.md)，Quick Sight 会跳过该字段不包含有效日期的行。

Quick Sight 提供了SPICE引擎尝试摄取数据时发生的错误的详细列表。当保存的数据集报告跳过行时，您可以查看错误，以便采取措施修复问题。

**查看在 SPICE 摄取（数据导入）期间跳过的行的错误**

1. 选择左边**的数据**。在 “**数据集**” 选项卡中，选择有问题的数据集将其打开。

1. 在打开的数据集详细信息页面上，选择**刷新**选项卡。

   SPICE 摄取历史记录显示在底部。

1. 对于出现错误的摄取，请选择**查看错误摘要**。此链接位于**状态**列下。

1. 检查打开的**文件导入日志**。它会显示以下部分：
   + **摘要** – 提供一个百分比分数，用于表示总导入行数中跳过的行数。例如，如果在总共 1,728 行中跳过了 864 行，则分数为 50.00％。
   + **跳过的行数** – 提供每组相似的已跳过行的行数、字段名称和错误消息。
   + **问题排查** – 提供下载包含错误信息的文件的链接。

1. 在**问题排查**下，选择**下载错误行文件**。

   错误文件中每个错误都占一行。文件名为 `error-report_123_fe8.csv`，其中 `123_fe8` 替换为唯一标识字符串。文件包含以下列：
   + **ERROR\$1TYPE** – 导入此行时发生的错误的类型或错误代码。可以在该过程之后的 [SPICE 摄取错误代码](errors-spice-ingestion.md) 部分中查找此错误。
   + **COLUMN\$1NAME** – 数据中导致错误的列的名称。
   + 导入行中的所有列（其余列复制整行数据）。如果一行中有多个错误，则该行可能会在此文件中出现多次。

1. 选择**编辑数据集**对数据集进行更改。您可以筛选数据、省略字段、更改数据类型、调整现有计算字段以及添加用于验证数据的计算字段。

1. 在完成错误代码所示的更改后，请再次导入数据。如果日志中出现更多 SPICE 摄取错误，请再次执行此过程以修复所有剩余错误。

**提示**  
如果您无法使用数据集编辑器在合理时间内解决数据问题，请咨询拥有数据的管理员或开发人员。从长远来看，比起在准备用于分析的数据时添加异常处理，清理接近数据来源的数据会更加经济高效。通过从源头上进行修复，可以避免多人以不同方式修复错误，从而导致日后出现不同报告结果。

**练习对跳过行进行问题排查**

1. 下载 [samples/csv-files-for-troubleshooting-skipped-rows.zip](samples/csv-files-for-troubleshooting-skipped-rows.zip)。

1. 将文件解压缩到一个文件夹，您可以使用该文件夹将示例.csv 文件上传到 Quick Sight 中。

   zip 文件包含以下两个文本文件：
   + `sample dataset - data ingestion error.csv` – 包含导致跳过行问题的示例 .csv 文件。您可以尝试自己导入文件，以了解错误过程是如何运行的。
   + `sample data ingestion error file`— 将示例.csv 文件导入 Quick Sight 时在SPICE摄取过程中生成的示例错误文件。

1. 按照以下步骤导入数据：

   1. 选择**数据、数据****集**选项卡、**新建**、**数据集**。

   1. 选择 **Upload a file** (上传文件)。

   1. 查找并选择名为 `sample dataset - data ingestion error.csv` 的文件。

   1. 选择**上传文件**、**编辑设置并准备数据**。

   1. 选择**保存**退出。

1. 选择数据集查看其信息，然后选择**查看错误摘要**。检查错误和数据以帮助您解决问题。

# SPICE 摄取错误代码
<a name="errors-spice-ingestion"></a>

以下错误代码和说明列表可以帮助您了解将数据摄取到 SPICE 中时出现的问题并对其进行排查。

## 跳过的行的错误代码
<a name="errors-skipped-rows-during-import"></a>

以下错误代码和说明列表可以帮助您了解和排查被跳过行的问题。

****ARITHMETIC\$1EXCEPTION**** – 处理值时发生算术异常。

****ENCODING\$1EXCEPTION**** – 将数据转换和编码为 SPICE 时发生未知异常。

****OPENSEARCH\$1CURSOR\$1NOT\$1ENABLED — 该 OpenSearch域未启用**** SQL 游标 ()。`"opendistro.sql.cursor.enabled" : "true"`有关更多信息，请参阅 [授权连接到 Amazon 服务 OpenSearch](opensearch.md)。

****INCORRECT\$1FIELD\$1COUNT**** – 一行或多行中的字段过多。确保每行中的字段数与架构中定义的字段数一致。

****INCORCT\$1SAGEMAKER\$1OUTPUT\$1FIELD\$1COUNT — AI 输出的字段数量意****外。SageMaker 

****INDEX\$1OUT\$1OF\$1BOUNDS**** – 系统请求的索引对于正在处理的数组或列表无效。

****MALFORMED\$1DATE**** – 字段中的值无法转换为有效日期。例如，如果尝试转换包含类似 `"sale date"` 或 `"month-1"` 等值的字段，则该操作会生成格式错误的日期错误。要修复此错误，请删除数据来源中的非日期值。检查导入的文件中的数据是否混有列标题。如果字符串包含无法转换的日期或时间，请参阅 [使用不支持的日期或自定义日期](using-unsupported-dates.md)。

****MISSING\$1SAGEMAKER\$1OUTPUT\$1FIELD — AI 输出中的一个字段意****外为空。SageMaker 

****NUMBER\$1BITWIDTH\$1TOO\$1LARGE**** – 数值超过 SPICE 中支持的长度。例如，数值超过 19 位，这是 `bigint` 数据类型的长度。对于非数学值的长数字序列，请使用 `string` 数据类型。

****NUMBER\$1PARSE\$1FAILURE**** – 数字字段中的值不是数字。例如，数据类型为 `int` 的字段包含字符串或浮点数。

****SAGEMAKER\$1OUTPUT\$1COLUMN\$1TYPE\$1MISMATCH — AI 架构中定义的数据类型与从 AI 收到的数据类型不匹配****。 SageMaker SageMaker 

****STRING\$1TRUNCATION**** – SPICE 正在截断字符串。如果字符串的长度超过 SPICE 限额，字符串会被截断。有关 SPICE的更多信息，请参阅[将数据导入到 SPICE](spice.md)。有关限额的更多信息，请参阅[服务配额](https://docs.amazonaws.cn/servicequotas/latest/userguide/intro.html)。

****UNDEFINED**** – 摄取数据时发生未知错误。

****UNSUPPORTED\$1DATE\$1VALUE**** – 日期字段包含的日期采用支持的格式，但不在受支持的日期范围内，例如“12/31/1399”或“01/01/10000”。有关更多信息，请参阅 [使用不支持的日期或自定义日期](using-unsupported-dates.md)。

## 数据导入期间的错误代码
<a name="errors-during-import"></a>

对于失败的导入和数据刷新作业，Quick Sight 会提供错误代码，指明导致失败的原因。以下错误代码和说明列表可以帮助您了解将数据摄取到 SPICE 中时出现的问题并对其进行排查。

****ACCOUNT\$1CAPACITY\$1LIMIT\$1EXCEEDED**** – 该数据超过您的当前 SPICE 容量。购买更多 SPICE 容量或清理现有的 SPICE 数据，然后重试该摄取。

****CONNECTION\$1FAILURE —**** Amazon Quick Sight 无法连接到您的数据源。检查数据来源连接设置，然后重试。

****CUSTOMER\$1ERROR**** – 在解析数据时出现问题。如果问题仍然存在，请联系 Amazon Quick Sight 技术支持。

****DATA\$1SET\$1DELETED**** – 在摄取期间删除了数据来源或数据集或变得不可用。

****DATA\$1SET\$1SIZE\$1LIMIT\$1EXCEEDED**** – 该数据集超过允许的最大 SPICE 数据集大小。使用筛选条件减小数据集大小，然后重试。有关 SPICE 限额的信息，请参阅 [数据来源限额](data-source-limits.md)。

****DATA\$1SOURCE\$1AUTH\$1FAILED**** – 数据来源身份验证失败。检查您的凭证，然后使用**编辑数据来源**选项以替换过期的凭证。

****DATA\$1SOURCE\$1CONNECTION\$1FAILED**** – 数据来源连接失败。检查 URL，然后重试。如果该错误仍然存在，请与数据来源管理员联系以获得帮助。

****DATA\$1SOURCE\$1NOT\$1FOUND**** – 找不到数据来源。查看您的 Amazon Quick Sight 数据源。

****DATA\$1TOLERANCE\$1EXCEPTION**** – 无效行太多。Amazon Quick Sight 已达到可以跳过并继续摄取的行数配额。检查数据，然后重试。

****FAILURE\$1TO\$1ASSUME\$1ROLE — Amazon Quick Sight 无法担任正确的 (IAM) 角色****。 Amazon Identity and Access Management 在 IAM 控制台中验证 `Amazon Quick Sight-service-role` 的策略。

****FAILURE\$1TO\$1PROCESS\$1JSON\$1FILE — Amazon Quick Sight 无法将清单文件****解析为有效的 JSON。

****IAM\$1ROLE\$1NOT\$1AVAILABLE**** — Amazon Quick Sight 无权访问数据源。要管理 Amazon Quick Sight 对 Amazon 资源的权限，请以管理员身份前往 “**管理 Amazon Quick Sight**” 选项下的 “**安全和权限**” 页面。

****INGESTION\$1CANCELED**** – 用户已取消摄取。

****INGESTION\$1SUPERSEDED**** – 另一个工作流已取代该摄取。当创建新的摄取而另一个摄取仍在进行中时，就会发生这种情况。避免在短时间内多次手动编辑数据集，因为每次手动编辑都会创建一个新的摄取，它将取代并结束之前的摄取。

****INTERNAL\$1SERVICE\$1ERROR**** – 出现内部服务错误。

****INVALID\$1DATA\$1SOURCE\$1CONFIG**** – 在连接设置中显示无效的值。检查连接详细信息，然后重试。

****INVALID\$1DATAPREP\$1SYNTAX**** – 计算字段表达式包含无效的语法。更正语法，然后重试。

****INVALID\$1DATE\$1FORMAT**** – 显示无效的日期格式。

****IOT\$1DATA\$1SET\$1FILE\$1EMP**** TY — 未找到分析数据。 Amazon IoT 检查您的账户，然后重试。

****IOT\$1FILE\$1NOT\$1FOUND — 找不到****指定的分析文件。 Amazon IoT 检查您的账户，然后重试。

****OAUTH\$1TOKEN\$1FAILURE**** – 数据来源的凭证已过期。续订您的凭证，然后重试该提取。

****PASSWORD\$1AUTHENTICATION\$1FAILURE**** – 为数据来源显示不正确的凭证。更新数据来源凭证，然后重试该提取。

****PERMISSION\$1DENIED**** – 访问请求的资源被数据来源拒绝。在重试之前，请向您的数据库管理员申请权限或确保已向 Amazon Quick Sight 授予适当的权限。

****QUERY\$1TIMEOUT**** – 数据来源查询在等待响应时超时。检查数据来源日志，然后重试。

****ROW\$1SIZE\$1LIMIT\$1EXCEEDED**** – 行大小限额超过最大值。

****S3\$1FILE\$1INACCESSIBLE**** – 无法连接到 S3 存储桶。在连接 S3 存储桶之前，请务必向 Amazon Quick Sight 和用户授予必要的权限。

****S3\$1MANIFEST\$1ERROR**** – 无法连接到 S3 数据。确保 S3 清单文件有效。还要验证 S3 数据的访问权限。Amazon Quick Sight 和 Amazon Quick Sight 用户都需要权限才能连接 S3 数据。

****S3\$1UPLOADED\$1FILE\$1DELETED**** –（在两次摄取之间）删除了摄取的一个或多个文件。检查 S3 存储桶，然后重试。

****SOURCE\$1 API\$1LIMIT \$1EXCEEDED\$1**** FAILURE — 此次摄取超过了该数据源的 API 配额。请与数据来源管理员联系以获得帮助。

****SOURCE\$1RESOURCE\$1LIMIT\$1EXCEEDED**** – 查询超过数据来源的资源限额。涉及的资源示例可能包括并发查询限额、连接限额和物理服务器资源。请与数据来源管理员联系以获得帮助。

****SPICE\$1TABLE\$1NOT\$1**** FOUND — Amazon Quick Sight 数据源或数据集在摄取期间被删除或不可用。在 Amazon Quick Sight 中检查您的数据集并重试。有关更多信息，请参阅 [对跳过行错误进行问题排查](troubleshooting-skipped-rows.md)。

****SQL\$1EXCEPTION**** – 出现常规 SQL 错误。该错误可能是由于查询超时、资源限制、查询之前或查询期间的意外数据定义语言 (DDL) 更改以及其他数据库错误造成的。检查数据库设置和查询，然后重试。

****SQL\$1INVALID\$1PARAMETER\$1VALUE**** – 显示无效的 SQL 参数。检查 SQL，然后重试。

****SQL\$1NUMERIC\$1OVERFLOW**** — Amazon Quick Sight 遇到了数字异常。out-of-range 检查相关的值和计算的列是否溢出，然后重试。

****SQL\$1SCHEMA\$1MISMATCH\$1ERROR — 数据源架构与 Ama**** zon Quick Sight 数据集不匹配。更新您的 Amazon Quick Sight 数据集定义。

****SQL\$1TABLE\$1NOT\$1FOUND**** — Amazon Quick Sight 在数据源中找不到该表。验证数据集或自定义 SQL 中指定的表，然后重试。

****SSL\$1CERTIFICATE\$1VALIDATION\$1**** FAILURE — Amazon Quick Sight 无法验证数据库服务器上的安全套接字层 (SSL) 证书。与数据库管理员一起检查该服务器上的 SSL 状态，然后重试。

****UNRESOLVABLE\$1HOS**** T — Amazon Quick Sight 无法解析数据源的主机名。验证数据来源的主机名，然后重试。

****UNROUTABLE\$1HOS**** T — Amazon Quick Sight 无法访问你的数据源，因为它位于私有网络内。确保您的私有 VPC 连接在企业版中配置正确，或者允许 Amazon Quick Sight IP 地址范围允许标准版连接。

# 更新数据集中的文件
<a name="updating-file-dataset"></a>

要获取最新版本的文件，您可以更新数据集中的文件。您可以更新以下类型的文件：
+ 逗号分隔（CSV）和制表符分隔（TSV）的文本文件
+ 扩展和常用日志格式文件（ELF 和 CLF）
+ 平面或半结构化数据文件（JSON）
+ Microsoft Excel（XLSX）文件

在更新文件之前，请确保新文件的字段顺序与数据集中当前原始文件的字段顺序相同。如果两个文件之间存在字段（列）差异，则会发生错误，您需要先修复差异，才能尝试再次更新。您可以通过编辑新文件使其匹配原始文件来实现此目的。请注意，如果要添加新字段，可以将它们附加到文件中的原始字段之后。例如，在 Microsoft Excel 电子表格中，可以在原始字段的右侧附加新字段。

**更新数据集中的文件**

1. 在 Quick Sight 中，选择左边**的数据**。

1. 在**数据集**选项卡中，选择要更新的数据集，然后选择**编辑数据集**。

1. 在打开的数据准备页面上，选择要更新的文件的下拉列表，然后选择**更新文件**。

1. 在打开的**更新文件**页面上，选择**上传文件**，然后导航到一个文件。

   Quick Sight 会扫描文件。

1. 如果文件是 Microsoft Excel 文件，请在打开的**选择您的工作表**页面上选择所需的工作表，然后选择**选择**。

1. 在接下来的页面中选择**确认文件更新**。此时会显示部分工作表列的预览供您参考。

   文件更新成功的消息会显示在右上角，并更新表格预览以显示新的文件数据。