

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 在 Studio Classic 中 JupyterLab 使用木星人工智能
<a name="sagemaker-jupyterai-use"></a>

你可以在 Studio Classic JupyterLab 或 Studio Classic 中使用 Jupyter AI，方法是从聊天用户界面或笔记本单元格中调用语言模型。以下各节将介绍完成此操作所需的步骤。

## 使用聊天用户界面中的语言模型
<a name="sagemaker-jupyterai-use-chatui"></a>

在聊天用户界面文本框中撰写您的消息，开始与您的模型互动。要清除消息历史记录，请使用 `/clear` 命令。

**注意**  
清除消息历史记录不会删除与模型提供程序的聊天上下文。

## 使用笔记本单元格中的语言模型
<a name="sagemaker-jupyterai-use-magic-commands"></a>

在使用`%%ai`和`%ai`命令调用语言模型之前，请在 JupyterLab 或 Studio Classic 笔记本单元格中运行以下命令来加载 IPython 扩展程序。

```
%load_ext jupyter_ai_magics
```
+ **对于由 Amazon以下机构托管的模型：**
  + 要调用 A SageMaker I 中部署的模型，请使用下面的必填参数将字符串`sagemaker-endpoint:endpoint-name`传递给`%%ai`魔法命令，然后在以下几行中添加提示符。

    下表列出了调用由 SageMaker AI 或 Amazon Bedrock 托管的模型时的必需参数和可选参数。<a name="sagemaker-jupyterai-jumpstart-inference-params"></a>    
[\[See the AWS documentation website for more details\]](http://docs.amazonaws.cn/sagemaker/latest/dg/sagemaker-jupyterai-use.html)

    以下命令调用由 AI 托管的 [llama2-](https://sagemaker.readthedocs.io/en/stable/doc_utils/pretrainedmodels.html) 7b 模型。 SageMaker 

    ```
    %%ai sagemaker-endpoint:jumpstart-dft-meta-textgeneration-llama-2-7b -q {"inputs":"<prompt>","parameters":{"max_new_tokens":64,"top_p":0.9,"temperature":0.6,"return_full_text":false}} -n us-east-2 -p [0].generation -m {"endpoint_kwargs":{"CustomAttributes":"accept_eula=true"}} -f text
    Translate English to French:
    sea otter => loutre de mer
    peppermint => menthe poivrée
    plush girafe => girafe peluche
    cheese =>
    ```

    以下示例调用由 AI 托管的 Flan-t5-Small 模型。 SageMaker 

    ```
    %%ai sagemaker-endpoint:hf-text2text-flan-t5-small --request-schema={"inputs":"<prompt>","parameters":{"num_return_sequences":4}} --region-name=us-west-2 --response-path=[0]["generated_text"] -f text
    What is the atomic number of Hydrogen?
    ```
  + 要调用 Amazon Bedrock 中部署的模型，`bedrock:model-name`请将字符串传递给 m `%%ai` agic 命令，其中包含[调用由 JumpStart Amazon Bedrock 托管的模型的参数](#sagemaker-jupyterai-jumpstart-inference-params)列表中定义的任何可选参数，然后在以下几行中添加您的提示。

    以下示例调用了由 Amazon Bedrock [托管的 AI21 Labs Jurassic-2 模型](https://docs.amazonaws.cn/bedrock/latest/userguide/model-parameters-jurassic2.html)。

    ```
    %%ai bedrock:ai21.j2-mid-v1 -m {"model_kwargs":{"maxTokens":256}} -f code
    Write a function in python implementing a bubbble sort.
    ```
+ **对于由第三方提供商托管的模型**

  要调用第三方提供商托管的模型，请将字符串 `provider-id:model-name` 传递给带有可选 [`Output format`](#sagemaker-jupyterai-output-format-params) 的 `%%ai` 神奇命令，然后在以下几行中添加提示。您可以在 Jupyter AI [模型提供商列表](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers)中找到每个提供商的详细信息，包括其 ID。

  以下命令要求 Anthropic Claude 模型输出包含带有黑色边框的白色方块映像的 HTML 文件。

  ```
  %%ai anthropic:claude-v1.2 -f html
  Create a square using SVG with a black border and white fill.
  ```