

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 在模型评测作业中使用提示数据集和可用评估维度
<a name="clarify-foundation-model-evaluate-overview"></a>

下文将概述如何使用自动和人工模型评测作业。

## 模型评测任务
<a name="clarify-foundation-model-evaluate-overview-tasks"></a>

在模型评测任务中，评估任务是您希望模型根据提示信息执行的任务。

您可以为每个模型评测作业选择一种任务类型。通过以下章节了解每种任务类型的更多信息。每个部分还包括可用的内置数据集及其相应指标的列表，这些指标只能在自动模型评测作业中使用。

### 开放式生成
<a name="clarify-foundation-model-evaluate-overview-oog"></a>

开放式文本生成是一项基础模型任务，它可以生成对没有预定义结构的提示的自然语言回复，例如对聊天机器人的通用询问。对于开放式文本生成，基础模型评估 (FMEval) 可以沿以下维度评估您的模型。
+ **事实知识**-评估模型对事实知识的编码程度。 FMEval 可以根据您自己的自定义数据集来测量您的模型，也可以使用基于[https://hadyelsahar.github.io/t-rex/](https://hadyelsahar.github.io/t-rex/)开源数据集的内置数据集。
+ **语义稳健性**-评估模型输出因输入中保持语义的微小变化而发生的变化程度。 FMEval 测量模型输出如何因键盘错别字、随机更改为大写字母以及随机添加或删除空格而发生的变化。
+ **提示刻板印象**：测量模型在响应中编码偏见的概率。这些偏见包括种族、性别、性取向、宗教、年龄、国籍、残疾、外表和社会经济地位方面的偏见。 FMEval 可以根据您自己的自定义数据集来衡量您的模型响应，也可以使用基于[https://github.com/nyu-mll/crows-pairs](https://github.com/nyu-mll/crows-pairs)开源挑战数据集的内置数据集。
+ **毒性**-使用毒性检测模型评估文本。 FMEval 检查你的模特是否有性暗示、粗鲁、不合理、仇恨或攻击性的言论、亵渎、侮辱、调情、对身份的攻击和威胁。 FMEval 可以根据您自己的自定义数据集来测量您的模型，也可以使用基于[https://arxiv.org/abs/2009.11462](https://arxiv.org/abs/2009.11462)RealToxicityPromptsChallenging、和数据集的内置[https://github.com/amazon-science/bold](https://github.com/amazon-science/bold)数据集。

   RealToxicityPromptsChallenging 是 RealToxicityPrompts 的一个子集，用于测试大型语言模型 (LLM) 的极限。它还确定了容易产生有毒文字的区域。 LLMs 

  您可以使用以下毒性检测器来评估您的模型：
  + [https://github.com/unitaryai/detoxify](https://github.com/unitaryai/detoxify)：基于 [https://www.kaggle.com/c/jigsaw-toxic-comment-classification-challenge](https://www.kaggle.com/c/jigsaw-toxic-comment-classification-challenge) 和 [https://www.kaggle.com/c/jigsaw-unintended-bias-in-toxicity-classification](https://www.kaggle.com/c/jigsaw-unintended-bias-in-toxicity-classification) 训练的多标签文本分类器。该模型为以下类别提供 `7` 得分：毒性、严重毒性、淫秽、威胁、侮辱、性露骨和身份攻击。
  + [https://github.com/microsoft/TOXIGEN](https://github.com/microsoft/TOXIGEN)：基于二进制 RoBERTa 的文本分类器，在 ToxiGen 数据集上进行了微调。ToxiGen 数据集包含与少数群体有关的具有微妙和隐含毒性的句子。

### 文本摘要
<a name="clarify-foundation-model-evaluate-overview-ts"></a>

文本摘要可用于创建新闻摘要、法律文件、学术论文、内容预览和内容策划等任务。以下因素可能会影响响应的质量：模糊性、连贯性、偏见、用于训练基础模型的文本的流畅性，以及信息丢失、准确性、相关性或上下文不匹配。 FMEval 可以根据您自己的自定义数据集评估您的模型，也可以使用基于[https://gov-report-data.github.io/](https://gov-report-data.github.io/)、和数据集的内置[https://huggingface.co/datasets/gigaword?row=3](https://huggingface.co/datasets/gigaword?row=3)数据集。对于文本摘要， FMEval 可以根据以下内容评估您的模型：
+ *准确度*：表示摘要与被公认为黄金标准的参考摘要相似度的数值得分。数字得分高，说明摘要质量高。数字得分越低，说明总结越差。以下指标用于评估摘要的准确性：
  + [https://huggingface.co/spaces/evaluate-metric/rouge](https://huggingface.co/spaces/evaluate-metric/rouge)：计算参考摘要与模型摘要之间的 N-gram 重叠。
  + [https://huggingface.co/spaces/evaluate-metric/meteor](https://huggingface.co/spaces/evaluate-metric/meteor)：计算参考摘要和范文摘要之间的词语重叠，同时考虑重述的情况。
  + [https://huggingface.co/spaces/evaluate-metric/bertscore](https://huggingface.co/spaces/evaluate-metric/bertscore)— 计算和比较句子嵌入以进行摘要和参考。 FMEval 使用[roberta-large-mnli](https://huggingface.co/roberta-large-mnli)或 [microsoft/ deberta-xlarge-mnli](https://huggingface.co/microsoft/deberta-xlarge-mnli) 模型来计算嵌入。
+ *毒性*：使用毒性检测器模型计算生成的摘要得分。有关其他信息，请参阅*开放式生成*任务中的*毒性*部分。
+ *语义鲁棒性*：衡量模型的文本摘要质量因输入中语义保留的微小变化而发生变化的程度。这些更改的例子包括错别字、随意更改大写字母以及随意添加或删除空白。语义鲁棒性使用的是未受干扰的文本摘要与受干扰的文本摘要在准确性上的绝对差异。准确度算法使用 [https://huggingface.co/spaces/evaluate-metric/rouge](https://huggingface.co/spaces/evaluate-metric/rouge)、[https://huggingface.co/spaces/evaluate-metric/meteor](https://huggingface.co/spaces/evaluate-metric/meteor) 和 [https://huggingface.co/spaces/evaluate-metric/bertscore](https://huggingface.co/spaces/evaluate-metric/bertscore) 指标，详见本节前文。

### 问题回答
<a name="clarify-foundation-model-evaluate-overview-qa"></a>

问答用于生成自动帮助台响应、信息检索和电子学习等任务。 FMEval 可以根据您自己的自定义数据集评估您的模型，也可以使用基于[https://github.com/google-research-datasets/boolean-questions](https://github.com/google-research-datasets/boolean-questions)、和数据集的内置[https://github.com/google-research-datasets/natural-questions](https://github.com/google-research-datasets/natural-questions)数据集。要回答问题， FMEval 可以根据以下内容评估您的模型：
+ *准确度*：将生成的答案与参考文献中给出的问题答案对进行比较的平均得分。得分由以下方法平均得出：
  + *完全匹配*：完全匹配的二进制得分为 `1`，否则为 `0`。
  + *准精确匹配*：去除标点符号和语法冠词（如 the、a、and）（规范化）后，为匹配结果分配一个二进制得分 `1`。
  + *词语 F1*：F1 得分，或标准化响应与参考值之间精确度和召回率的调和平均值。F1 得分等于精确度的两倍乘以召回率，再除以精确度（P）和召回率（R）之和，即 F1 = (2\$1P\$1R)/(P \$1 R)。

    在前面的计算中，精确度被定义为真阳性（TP）除以真阳性和假阳性（FP）之和，或 P = (TP)/(TP\$1FP)。

    召回率定义为真阳性数量除以真阳性和假阴性（FN）之和，或 R = (TP)/(TP\$1FN)。

    词语 F1 得分越高，说明答复质量越高。
+ *语义鲁棒性*：衡量模型的文本摘要质量因输入中语义保留的微小变化而发生变化的程度。这些更改的例子包括键盘上的错别字、不准确地将数字转换为单词、随意更改大写字母以及随意添加或删除空白。语义鲁棒性使用的是未受干扰的文本摘要与受干扰的文本摘要在准确性上的绝对差异。如前所述，准确度是通过精确匹配、准精确匹配和单词 F1 来衡量的。
+ *毒性*：使用毒性检测模型对生成的答案进行得分。有关其他信息，请参阅*开放式生成*任务中的*毒性*部分。

### 分类
<a name="clarify-foundation-model-evaluate-overview-tc"></a>

分类用于将文本归入预定义的类别。使用文本分类的应用程序包括社交媒体上的内容推荐、垃圾邮件检测、语言识别和趋势分析。数据不平衡、模棱两可、噪音大、标签偏差是一些可能导致分类错误的问题。 FMEval 根据基于数据集的内置数据集对您的模型进行评估，并[https://www.kaggle.com/datasets/nicapotato/womens-ecommerce-clothing-reviews](https://www.kaggle.com/datasets/nicapotato/womens-ecommerce-clothing-reviews) and/or 对照您自己的提示数据集进行以下评估。
+ **准确度**：比较预测类别与其标签的得分。精确度通过以下指标来衡量：
  + **分类准确率**：如果预测标签等于真实标签，则得分为 `1`，否则为 `0`。
  + **精度**：在整个数据集上计算的真阳性与所有阳性的比率。当减少误报率非常重要时，精确度是一个合适的衡量标准。每个数据点的得分可以使用以下 `multiclass_average_strategy` 参数值进行汇总。下例中列出了每个参数。
  + **召回**：根据整个数据集计算得出的真阳性结果与真阳性结果和假阴性结果之和的比率。当减少假阴性非常重要时，召回率是一种合适的测量方法。每个数据点的得分可以使用以下 `multiclass_average_strategy` 参数值进行汇总。
    + **`micro`**（默认）：所有类别的真阳性总和除以真阳性和假阴性总和。这种聚合类型可以衡量模型的整体预测准确性，同时对所有类别一视同仁。例如，这种聚合可以评测您的模型对任何疾病（包括罕见病）患者进行正确分类的能力，因为它对所有类别都赋予了同等权重。
    + **`macro`**：为每个类别计算的召回值总和除以类别数。这种聚合类型可以衡量模型对每个类别的预测准确性，每个类别的权重相同。例如，这种汇总可以评测模型预测所有疾病的能力，而不论每种疾病的流行程度或罕见程度如何。
    + **`samples`**（仅限多分类器）：所有样本的真阳性总和与所有样本的真阳性和假阴性总和之比。对于多分类器，样本由每一类的一组预测响应组成。这种聚合类型可对多类问题中每个样本的召回率进行精细指标。例如，由于按样本聚合对每个样本一视同仁，因此这种聚合可以评测您的模型预测罕见病患者正确诊断的能力，同时还能最大限度地减少假阴性。
    + **`weighted`**：一个类别的权重乘以同一类别的召回率，再加上所有类别的总和。这种汇总方式既能衡量总体召回率，又能兼顾不同类别的重要性。例如，这种聚合可以评测模型预测病人正确诊断的能力，并对危及生命的疾病给予更高的权重。
    + **`binary`**：计算值 `pos_label` 指定的类别的召回率。这种聚合类型忽略了未指定的类别，只给出单一类别的总体预测准确率。例如，这种汇总可以评测您的模型筛查特定高传染性危及生命疾病的能力。
    + **`none`**：计算出的每个类别的召回率。当不同类别的错误惩罚差异很大时，特定类别的召回率可帮助您解决数据中的类别不平衡问题。例如，这种聚合可以评测您的模型能在多大程度上识别出可能患有某种特定疾病的所有患者。
  + **平衡分类准确率** (BCA)：二元分类的召回率和真负率之和除以 `2`。真阴性率是真阴性的数量除以真阴性和假阳性的总和。对于多分类器，BCA 的计算方法是每类的召回值之和除以类数。当预测假阳性和假阴性的惩罚都很高时，BCA 可以提供帮助。例如，BCA 可以评测您的模型在多大程度上可以预测一些具有高度传染性的致命疾病，并进行侵入性治疗。
+ **语义稳健性**-评估模型输出因输入中保持语义的微小变化而发生的变化程度。 FMEval 测量由于键盘错别字、随机更改为大写字母以及随机添加或删除空格而导致的模型输出。语义鲁棒性是对未受干扰和受干扰的文本摘要之间准确性的绝对差异进行得分。

## 基础模型评测类型
<a name="clarify-foundation-model-evaluate-overview-types"></a>

以下各节将详细介绍针对基础模型的人工和算法评估类型。

### 人工评估
<a name="clarify-foundation-model-evaluate-overview-types-human"></a>

要由人工评估模型，必须定义指标和相关指标类型。如果要评估多个模型，可以使用比较或单独评级机制。如果要对一个模型进行评估，则必须使用单独的评级机制。以下评级机制可用于任何与文本相关的任务：
+  （比较）**李克特量表 - 比较**：人工评估员将根据您的指示，在 5 分的李克特量表上显示他们对两个回答的偏好。在最终报告中，结果将显示为整个数据集按偏好强度划分的得分柱状图。在说明中确定 5 点量表的要点，以便评估员知道如何根据您的期望对答复进行得分。
+ （比较）**选择按钮**：允许人工评估员根据您的指示，使用单选按钮指出一个首选答复，而不是另一个答复。最终报告中的结果将以百分比的形式，显示工作人员为每种模型首选的响应。在说明中明确解释您的评估方法。
+  （比较）**排序**：允许人工评估员根据您的指示，从 1 开始，按顺序排列他们对提示的首选回答。在最终报告中，结果显示为评估人员对整个数据集的排名直方图。确保在说明中明确 `1` 等级的含义。
+ （个人）**拇指向上/拇指向下** - 允许人工评估员根据您的指示，将模型的每个反应评为可接受或不可接受。在最终报告中，结果显示了评估人员对每种模式给予“拇指向上”评估的百分比。您可以使用这种评级方法来评估一个或多个模型。如果在包含两个模型的评估中使用此功能，用户界面会为每个模型的回答提供一个“拇指向上”或“拇指向下”的选项。最终报告将逐一显示每个模型的汇总结果。在您对工作团队的指示中定义什么是可接受的回应。
+ （个人）**李克特量表 - 个人**：允许人工评估员根据您的指示，用 5 分的李克特量表来表示他们对模型回答的认可程度。在最终报告中，结果会显示评估者对整个数据集的 5 分得分柱状图。您可以将此评级方法用于包含一个或多个模型的评估。如果您在包含一个以上模型的评估中选择了这种评级方法，那么您的工作团队就会对每个模型的回答使用 5 分李克特量表。最终报告将逐一显示每个模型的汇总结果。在说明中定义 5 点量表上的要点，以便评估员知道如何根据您的期望对答复进行得分。

### 自动评估
<a name="clarify-foundation-model-evaluate-overview-types-auto"></a>

自动评估可以利用内置的数据集和算法，也可以根据使用场景的具体情况自带提示数据集。每项任务的内置数据集都不尽相同，下文将一一列举。有关任务摘要及其相关指标和数据集，请参阅以下**基础模型评测摘要**部分的表格。

## 基础模型评测摘要
<a name="clarify-foundation-model-evaluate-summary"></a>

下表总结了所有的评估任务、指标以及用于人工和自动评估的内置数据集。


| Task | 人工评估 | 人工指标 | 自动评估 | 自动指标 | 自动内置数据集 | 
| --- | --- | --- | --- | --- | --- | 
|  开放式生成  |  流畅性、连贯性、毒性、准确性、一致性、相关性、用户定义  |  偏好率、偏好强度、偏好等级、支持率、支持强度  |  事实知识  |    |  TREX  | 
|    |    |    |  语义鲁棒性  |    |  TREX  | 
|    |    |    |    |    |  BOLD  | 
|    |    |    |    |    |  WikiText  | 
|    |    |    |  提示定型  |    |  CrowS-Pairs  | 
|    |    |    |  毒性  |    |  RealToxicityPrompts  | 
|    |    |    |    |    |  BOLD  | 
|  文本摘要  |    |    |  准确性  |  ROUGE-N  |  Government Report Dataset  | 
|    |    |    |    |  BERTScore  |  Gigaword  | 
|    |    |    |    |    |  Government Report Dataset  | 
|    |    |    |    |    |  Gigaword  | 
|    |    |    |    |    |  Government Report Dataset  | 
|    |    |    |    |    |  Gigaword  | 
|  问题回答  |    |    |  准确性  |  完全匹配  |  BoolQ  | 
|    |    |    |    |  准精确匹配  |  NaturalQuestions  | 
|    |    |    |    |  词语 F1  |  TriviaQA  | 
|    |    |    |  语义鲁棒性  |    |  BoolQ  | 
|    |    |    |    |    |  NaturalQuestions  | 
|    |    |    |    |    |  TriviaQA  | 
|    |    |    |  毒性  |    |  BoolQ  | 
|    |    |    |    |    |  NaturalQuestions  | 
|    |    |    |    |    |  TriviaQA  | 
|  文本分类  |    |    |  准确性  |  分类准确性  |  Women's Ecommerce Clothing Reviews  | 
|    |    |    |    |  精度  |  Women's Ecommerce Clothing Reviews  | 
|    |    |    |    |  召回率  |  Women's Ecommerce Clothing Reviews  | 
|    |    |    |    |  平衡分类准确性  |  Women's Ecommerce Clothing Reviews  | 
|    |    |    |  语义鲁棒性  |    |  Women's Ecommerce Clothing Reviews  | 