亚马逊 SageMaker 澄清模型的可解释性 - Amazon SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

亚马逊 SageMaker 澄清模型的可解释性

亚马逊 SageMaker Explain 提供了有助于解释机器学习 (ML) 模型如何作出预测的工具。这些工具可以帮助机器学习建模者和开发人员以及其他内部利益相关者在部署之前将模型特征作为一个整体了解,并在部署后调试模型提供的预测。机器学习模型如何实现预测的透明度对消费者和监管机构也至关重要。如果他们要接受基于模型的决定,他们需要信任模型预测。 SageMaker 澄清使用与模型无关的功能归因方法。你可以使用它来了解模型为什么在训练后进行预测,并在推断过程中提供每个实例的解释。该实施包括可扩展且高效的实施SHAP. 这是基于来自合作博弈论领域的 Shapley 值的概念,该概念为每个特征赋予特定预测的重要性值。

澄清生成部分依赖图(PDP),显示边际影响功能对机器学习模型的预测结果产生的影响。给定一组输入要素,部分依赖性有助于解释目标响应。它还支持计算机视觉 (CV) 和自然语言处理 (NLP) 可解释性,使用与用于表格数据解释相同的 Shapley Value (SHAP) 算法。

在机器学习上下文中解释的作用是什么? 一个解释可以被视为对为什么提问这有助于人类理解预测的原因。在机器学习模型的背景下,您可能有兴趣回答以下问题:

  • 该模型为什么预测某个申请人的负面结果,例如拒绝贷款?

  • 模型如何做出预测?

  • 为什么模型做出了错误的预测?

  • 哪些功能对模型的行为影响最大?

您可以使用解释来审计和满足监管要求、建立对模型的信任并支持人类决策,以及调试和提高模型性能。

需要满足人类理解 ML 推理的性质和结果的需求,这是所需解释的关键。来自哲学和认知科学学科的研究表明,人们尤其关心对比性的解释,或者解释为什么事件 X 发生,而不是其他一些没有发生的事件 Y。在这里,X 可能是发生的意想不到或令人惊讶的事件,Y 对应于基于他们现有心理模型的期望,被称为基线. 请注意,对于同一事件 X,不同的人可能会根据他们的观点或心理模型 Y 寻求不同的解释。在可解释的人工智能上下文中,你可以将 X 视为正在解释的例子,Y 作为基线,通常选择表示一个信息性或普通示例的基线在数据集中。有时,例如在图像的机器学习建模的情况下,基线可能是隐式的,其中像素都是相同颜色的图像可以作为基线。

示例笔记本

亚马逊 SageMaker 澄清为模型可解释性提供了以下示例笔记本:

这款笔记本已经验证可在亚马逊上运行 SageMaker 仅限 Studio。如果您需要有关如何在亚马逊打开笔记本电脑的说明 SageMaker 工作室,请参阅创建或打开亚马逊 SageMaker Studio Notebook. 如果系统提示您选择内核,请选择Python 3(数据科学).