Skip to content

模型服务集成(Ollama / DeepSeek / 知识引擎)

简介

AI 能力在 mms-modules/mms-aimms-admin 通过依赖聚合后对外暴露接口。配置项统一为 mms.ai.*(见 mms-adminapplication*.yml)。实现类 OllamaService 根据 mms.ai.type 分支调用不同厂商协议。

运行方式

  1. 启动 mms-admin(不是单独启动 mms-system)。
  2. 流式接口示例(实现带 @SaIgnore 时可直接测):POST /api/chatPOST /api/chat/json,定义见 mms-aiAIController(路径以是否加统一前缀为准,以运行时代码为准)。
  3. 管理端聊天页与 mms-ui 联调时,Base URL 与端口与后端一致(默认常见为 8080,以 server.port 为准)。

配置项 mms.ai

配置键说明
typeOllama / DeepSeek / Document(腾讯云知识引擎 LKE 等 SSE 场景,与 AIProvider 一致)
url各模式下 API 地址(见下表)
model模型名;Ollama 可用 ollama list 复制全名;部分厂商可为空按约定
key在线 API Key / 机器人密钥等(勿将真实密钥提交仓库)
context.max-turns上下文保留轮数(默认示例常为 5

URL 示例(注释见主配置):

  • Ollamahttp://localhost:11434/api/generate(以本机 Ollama 为准)
  • DeepSeekhttps://api.deepseek.com/v1/chat/completions
  • Document(LKE):腾讯云知识引擎会话地址(如 …/v1/qbot/chat/sse,以控制台为准)

本地 Ollama

  1. 安装 Ollama 后,常用命令:
shell
ollama -v
ollama pull deepseek-r1:1.5b
ollama run deepseek-r1:1.5b
ollama list
ollama rm deepseek-r1:1.5b
  1. application 片段示例(Ollama)
yaml
mms:
  ai:
    type: Ollama
    url: http://localhost:11434/api/generate
    model: deepseek-r1:latest
    key:
    context:
      max-turns: 5

DeepSeek 官方接口

yaml
mms:
  ai:
    type: DeepSeek
    url: https://api.deepseek.com/v1/chat/completions
    model: deepseek-chat
    key: sk-xxxxxxxx   # 在 DeepSeek 控制台生成
    context:
      max-turns: 5

Document(知识引擎 / LKE)

type: Document 时,urlkey 等与厂商控制台的 bot / 应用 配置一致;具体字段以 OllamaService 中构建的请求体为准。生产环境务必使用环境变量或配置中心注入密钥,避免写死在仓库。

体验说明

  • 支持多轮上下文、流式输出等能力以当前 mms-ai 实现为准。
  • 下方截图仅为示例,若 UI 或路径变更以 mms-ui 为准。

文档修订(2026-04-01)

与主仓 mms-aimms-adminmms.ai 配置对齐;删去「仅启动 mms-system」等过时表述。

Released under the MIT License.