使用 Clarify 进行在线解释 SageMaker - Amazon SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

使用 Clarify 进行在线解释 SageMaker

本指南介绍如何使用 Clarify 配置在线可 SageMaker 解释性。借助 SageMaker 实时推理端点,您可以实时、持续地分析可解释性。在线可解释性功能适合 A ma SageMaker zon Machine Learning 工作流程的 “部署到生产环境” 部分。

Clarify 在线解释能力的工作方式

下图描述了托管提供可解释性请求的端点的 SageMaker 架构。它描绘了端点、模型容器和 Clarify 解释器之间的相互作用。 SageMaker

SageMaker 架构显示托管一个为按需解释性请求提供服务的端点。

下面介绍 Clarify 在线解释能力的工作原理。应用程序向 SageMaker 运行时服务发送REST样式InvokeEndpoint请求。该服务将此请求路由到 SageMaker 终端节点以获取预测和解释。然后,该服务会收到来自端点的响应。最后,该服务会将响应发送回应用程序。

为了提高终端节点的可用性,根据终端节点配置中的实例数量, SageMaker 自动尝试在多个可用区中分配终端节点实例。在端点实例上,根据新的可解释性请求,Clarify 解释 SageMaker 器会调用模型容器进行预测。然后,解释器会计算并返回特征归因。

以下是创建使用 SageMaker Clarify 在线可解释性的端点的四个步骤:

  1. 按照预检查步骤检查您的预训练 SageMaker 模型是否与在线可解释性兼容。

  2. 使用 Clarify 解释 SageMaker 器配置创建端点配置。CreateEndpointConfig API

  3. 创建终端节点并提供终端节点配置以 SageMaker 使用CreateEndpointAPI。该服务会启动 ML 计算实例,并按照配置中的规定部署模型。

  4. 调用终端节点:终端节点投入使用后,调用 SageMaker Runtime API InvokeEndpoint 向终端节点发送请求。然后,端点返回解释和预测。