本文主要介绍如何在模型广场一键快速完成大语言模型的部署,并完成推理服务的接口调用。本文以 DeepSeek-R1-Distill-Qwen-7B 为例进行介绍。

前提条件

  • 已经获取控制台账户和密码。

  • 已完成实名认证且账户余额大于 0 元。

部署模型

  1. 登录控制台,默认进入 AI 计算平台。

  2. 模型广场页面,选择 DeepSeek-R1-Distill-Qwen-7B 模型完成部署,具体操作可参考前文内容

    说明

    大语言模型目前统一使用 vllm 框架运行推理,同时支持流式和非流式接口。

  3. 进入推理服务详情页面,在服务信息页签内,获取外网访问地址API 密钥。用户点击相应信息右侧的复制按钮copy即可。

    注意

    后续所有 API 调用方式均需使用外网访问地址API 密钥

    bp model inference 1

方式一:手动调用

直接使用 Curl 调用

  1. 模型部署完成后,用户可打开本地电脑终端。

  2. 执行如下命令,直接发送 HTTP POST 请求。

    curl -X POST \
       -H "Content-Type:application/json" \
       -H "Authorization:Bearer sk-dUcrQpbouf7OWmzkOTG5LpA1vudBWX4m4FKX5cqP1yTY3yQC" \
       -d \
    '{"model": "DeepSeek-R1-Distill-Qwen-7B", "do_sample": false, "stream": false, "messages": [{"role": "system", "content": "You are a helpful assistent."}, {"role": "user", "content": "你好"}]}' \
     'http://ai.coreshub.cn/xb2a/inference/usr-5hy8cbjf/inf-gmqpqccv/v1/chat/completions'

    回显示例:

    bp model inference 3
    • Authorization 对应的值 sk-xxxxxxxx模型部署完成后,在服务信息中复制得到的 API 密钥,需根据实际情况进行修改。

    • -d 用于指定 POST 请求的正文内容,用户可自行修改。

    • http://ai.coreshub.cn/xb2a/inference/usr-5hy8cbjf/inf-gmqpqccv/v1/chat/completions: 为模型部署完成后,推理服务信息中的外网访问地址/v1/chat/completions。其中, http://ai.coreshub.cn/xb2a/inference/usr-5hy8cbjf/inf-gmqpqccv 为推理服务的外网访问地址,在服务信息中复制得到,需根据实际情况进行修改。

使用 API 测试工具

本示例直接使用 Talend API Tester 浏览器扩展工具为例,其他工具如 Postman 使用方法类似,用户可自行选择。

  1. 模型部署完成后,打开浏览器,开启 Talend API Tester 插件。

  2. 配置 AIP 调用的各项参数。

    bp model inference 4
    • METHOD:选择 POST 方法发送请求,并填写 URL,即外网访问地址/v1/chat/completions。其中,推理服务的外网访问地址,在服务信息中复制得到,需根据实际情况进行修改,故本示例为:http://ai.coreshub.cn/xb2a/inference/usr-5hy8cbjf/inf-gmqpqccv/v1/chat/completions

    • HEADERS:请求头需选择 Content-Typeapplication/json。新增 Authorization 并填写模型部署完成后,在服务信息中复制得到的,形如 sk-xxxxxxxAPI 密钥,需根据实际情况进行修改。

    • BODY:即请求的正文内容,用户可自行修改。

  3. 点击 Send,API 调用响应如下。

    bp model inference 5

方式二:使用第三方客户端调用

  1. 完成模型部署。

  2. 开启第三方工具,点击界面左下角的设置图标,选择模型服务 > 添加

    说明

    本实践以 CherryStudio 为例,其他第三方工具用户可自行参考相应的官方说明进行配置。

    bp model inference 10
  3. 在弹出添加提供商窗口中,配置各项参数,点击确定

    bp model inference 11
    • 提供商名称:用户自定义即可,本实践命名为基石智算

    • 提供商类型:智算平台的模型服务,兼容 OpenAI 接口规范,此处选择 OpenAI 即可。

  4. 新添加的提供商已显示在列,配置相应的 API 密钥API 路径,并点击管理

    bp model inference 7
    • API 密钥:即模型部署完成后,服务信息页面获取到的 API 密钥,需根据实际情况进行修改。

    • API 路径:即模型部署完成后,服务信息页面获取到的 外网访问地址,需根据实际情况进行修改。注意CherryStudio 平台填写路径时需忽略 v1 版本,故仅填写模型服务的外网访问地址即可,需省略末尾的 /

      注意

      其他三方工具(如 Chatbox)填写 API 域名和路径时,可能无需忽略 v1 版本,则此时该参数应该为 外网访问地址/v1/chat/completions,具体形如:http://ai.coreshub.cn/xb2a/inference/usr-5hy8cbjf/inf-gmqpqccv/v1/chat/completions

  5. 在弹出的新窗口中,可查看到可使用的模型,点击model cherry add图标,即可将相应模型添加至 CherryStudio 平台。

    bp model inference 8
    注意

    若此处未显示可用的模型,在 API 密钥和 API 路径填写正确的前提下,请耐心等待模型服务完全启动后,重新点击上一步的管理按钮。

  6. 在 CherryStudio 平台,点击左侧导航栏中的聊天助手,在对话框的顶部,切换已添加至平台上的 DeepSeek-R1-Distill-Qwen-7B 模型,即可进行对话。

    bp model inference 9

方式三:临时调用

推理服务的外网访问链接生成后,可直接通过修改外网链接的方式,使用浏览器使用大语言模型。

  1. 完成模型部署,获取外网访问链接。

  2. 将外网访问链接中的 inference 字段修改为 inference-web。

    例如,外网连接为:

    http://ai.coreshub.cn/xb2a/inference/usr-5hy8cbjf/inf-gmqpqccv/

    修改为:

    http://ai.coreshub.cn/xb2a/inference-web/usr-5hy8cbjf/inf-gmqpqccv/
  3. 在浏览器中输入修改后的外网链接,即可直接使用。

    bp model inference 6