使用 Clarify 进行在线解释 SageMaker - Amazon SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

使用 Clarify 进行在线解释 SageMaker

本指南介绍如何使用 Clarify 配置在线可 SageMaker 解释性。借助 SageMaker 实时推理端点,您可以实时、持续地分析可解释性。在线可解释性功能适合 A ma SageMaker zon Machine Learning 工作流程的 “部署到生产环境” 部分。

Clarify 在线解释能力的工作方式

下图描述了托管提供可解释性请求的端点的 SageMaker 架构。它描绘了端点、模型容器和 Clarify 解释器之间的相互作用。 SageMaker

SageMaker 架构:该图描绘了托管一个为按需解释性请求提供服务的端点。

下面介绍 Clarify 在线解释能力的工作原理。应用程序向 SageMaker 运行时服务发送 REST 样式的InvokeEndpoint请求。该服务将此请求路由到 SageMaker 终端节点以获取预测和解释。然后,该服务会收到来自端点的响应。最后,该服务会将响应发送回应用程序。

为了提高终端节点的可用性,根据终端节点配置中的实例数量, SageMaker 自动尝试在多个可用区中分配终端节点实例。在端点实例上,根据新的可解释性请求,Clarify 解释 SageMaker 器会调用模型容器进行预测。然后,解释器会计算并返回特征归因。

以下是创建使用 SageMaker Clarify 在线可解释性的端点的四个步骤:

  1. 按照预检查步骤检查您的预训练 SageMaker 模型是否与在线可解释性兼容。

  2. 使用 API 创建带有 Clari SageMaker fy 解释器配置的CreateEndpointConfig端点配置。

  3. 创建终端节点并提供终端节点配置以 SageMaker 使用 CreateEndpoint API。该服务会启动 ML 计算实例,并按照配置中的规定部署模型。

  4. 调用终端节点:终端节点投入使用后,调用 SageMaker Runtime API InvokeEndpoint 向终端节点发送请求。然后,端点返回解释和预测。