SageMaker 使用 AI Autopilot 澄清可 SageMaker 解释性 - 亚马逊 SageMaker AI
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

SageMaker 使用 AI Autopilot 澄清可 SageMaker 解释性

Autopilot 使用 Amazon SageMaker Clarify 提供的工具来帮助深入了解机器学习 (ML) 模型是如何进行预测的。这些工具可以帮助机器学习工程师、产品经理和其他内部利益相关者了解模型特征。要信任和解释根据模型预测做出的决策,用户和监管机构都需要依靠机器学习的透明度。

Autopilot 解释功能使用与模型无关的特征归因方法。这种方法确定各项特征或输入对模型输出的贡献,从而深入了解不同特征的相关性。您可以利用它来了解模型在训练后做出预测的原因,或在推理过程中按实例提供解释。该实现包括 SHAP(Shapley 加法解释)的可扩展实现。这种实现方式基于合作博弈论中的 Shapley 值概念,即为每个功能分配一个特定预测的重要性值。

您可以将 SHAP 解释用于以下方面:审计和满足监管要求、建立对模型的信任、支持人工决策或调试和改进模型性能。

有关 Shapley 值和基线的更多信息,请参阅用于可解释性的 SHAP 基线

有关 Amazon SageMaker Clarify 文档的指南,请参阅 SageMaker 澄清文档指南。