亚马逊 SageMaker 阐明模型的可解释性 - 亚马逊 SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

亚马逊 SageMaker 阐明模型的可解释性

Ama SageMaker zon Clarify 提供工具来帮助解释机器学习 (ML) 模型如何进行预测。这些工具可以帮助机器学习建模者和开发人员以及其他内部利益相关者在部署之前了解模型的整体特征,并在模型部署后调试模型提供的预测。对于消费者和监管机构来说,机器学习模型如何得出预测的透明度也至关重要。他们要接受基于模型预测的决策,就需要信任模型预测。 SageMaker Clarify 使用与模型无关的特征归因方法。您可以使用它来了解模型在训练后做出预测的原因,并在推理期间提供每个实例的解释。该实现包括可扩展且高效的 SHAP 实现。这是基于合作博弈论领域的 Shapley 值的概念,该值为每个特征分配特定预测的重要性值。

Clarify 生成部分依赖图 (PDP),显示特征对机器学习模型预测结果的边际影响。部分依赖性有助于解释给定一组输入特征的目标响应。它还支持使用与表格数据解释相同的 Shapley Values (SHAP) 算法来解释计算机视觉 (CV) 和自然语言处理 (NLP)。

在机器学习背景下,解释的作用是什么? 解释可以看作是 “为什么” 问题的答案,它可以帮助人类理解预测的原因。在机器学习模型的背景下,您可能有兴趣回答以下问题:

  • 为什么该模型预测了负面结果,例如给定申请人的贷款被拒绝?

  • 该模型如何做出预测?

  • 为什么模型做出了错误的预测?

  • 哪些特征对模型行为的影响最大?

您可以使用解释来审计和满足监管要求、建立对模型的信任和支持人类决策,以及调试和改善模型性能。

需要满足人类对机器学习推理的本质和结果的理解的需求,这是所需解释的关键。哲学和认知科学学科的研究表明,人们特别关心对比性的解释,或对事件X发生原因的解释,而不是其他未发生的事件Y的解释。在这里,X 可能是发生的意外或令人惊讶的事件,而 Y 对应于基于他们现有心理模型(称为基线)的期望。请注意,对于同一个事件 X,不同的人可能会根据自己的观点或心理模型 Y 寻求不同的解释。在可解释的 AI 背景下,您可以将 X 视为正在解释的示例,将 Y 视为基线,通常选择该基线来表示数据集中不提供信息或平均的示例。有时,例如,在图像的机器学习建模中,基线可能是隐含的,其中像素颜色都相同的图像可以用作基线。

示例笔记本

SageMaker 为了便于模型解释,Amazon Clarify 提供了以下示例笔记本:

  • Amaz SageMaker on Cl arif SageMaker y Processing — 使用 Clarify 创建处理任务,用于检测偏差并解释带有特征属性的模型预测。示例包括使用 CSV 和 JSonLines 数据格式、自带容器以及使用 Spark 运行处理任务。

  • 使用 Clarif SageMaker y 解释图像分类 SageMaker — Clarify 可让您深入了解计算机视觉模型如何对图像进行分类。

  • 使用 Cl@@ arify — SageMaker Clar SageMaker ify 解释物体检测模型可让您深入了解计算机视觉模型如何检测物体。

此笔记本经验证只能在亚马逊 SageMaker Studio 中运行。如果您需要有关如何在 Amazon SageMaker Studio 中打开笔记本电脑的说明,请参阅创建或打开亚马逊 SageMaker Studio 笔记本。如果系统提示你选择内核,请选择 Python 3(数据科学)