借助 SageMaker Clarify 提供在线解释能力 - Amazon SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

借助 SageMaker Clarify 提供在线解释能力

本指南介绍如何使用 SageMaker Clarify 配置在线解释能力。借助 SageMaker 实时推理端点,您可以实时、持续地分析解释能力。在线解释功能适合 Amazon SageMaker Machine Learning 工作流部署到生产环境部分。

Clarify 在线解释能力的工作方式

下图描述了用于托管处理解释能力请求的端点的 SageMaker 架构。其中描绘了端点、模型容器和 SageMaker Clarify 解释器之间的交互。


                SageMaker 架构:该图描述了托管用于处理按需解释能力请求的端点。

下面介绍 Clarify 在线解释能力的工作原理。该应用程序向 SageMaker 运行时服务发送 REST 样式的 InvokeEndpoint 请求。该服务将此请求路由到 SageMaker 端点以获取预测和解释。然后,该服务会收到来自端点的响应。最后,该服务会将响应发送回应用程序。

为了提高端点可用性,SageMaker 会根据端点配置中的实例计数,自动尝试在多个可用区中分配端点实例。在端点实例上,在收到新的解释能力请求时,SageMaker Clarify 解释器会调用模型容器进行预测。然后,解释器会计算并返回特征归因。

下面四步可创建使用 SageMaker Clarify 在线解释能力的端点:

  1. 按照预检查步骤,检查您的预先训练的 SageMaker 模型是否与在线解释能力兼容。

  2. 使用 CreateEndpointConfig API 使用 SageMaker Clarify 解释器配置创建端点配置

  3. 使用 CreateEndpoint API 创建端点并向 SageMaker 提供端点配置。该服务会启动 ML 计算实例,并按照配置中的规定部署模型。

  4. 调用端点:当端点投入使用后,调用 SageMaker 运行时 API InvokeEndpoint 向该端点发送请求。然后,端点返回解释和预测。