模型服务集成(Ollama / DeepSeek / 知识引擎)
简介
AI 能力在 mms-modules/mms-ai,mms-admin 通过依赖聚合后对外暴露接口。配置项统一为 mms.ai.*(见 mms-admin 的 application*.yml)。实现类 OllamaService 根据 mms.ai.type 分支调用不同厂商协议。
运行方式
- 启动
mms-admin(不是单独启动mms-system)。 - 流式接口示例(实现带
@SaIgnore时可直接测):POST /api/chat、POST /api/chat/json,定义见mms-ai的AIController(路径以是否加统一前缀为准,以运行时代码为准)。 - 管理端聊天页与
mms-ui联调时,Base URL 与端口与后端一致(默认常见为8080,以server.port为准)。
配置项 mms.ai
| 配置键 | 说明 |
|---|---|
type | Ollama / DeepSeek / Document(腾讯云知识引擎 LKE 等 SSE 场景,与 AIProvider 一致) |
url | 各模式下 API 地址(见下表) |
model | 模型名;Ollama 可用 ollama list 复制全名;部分厂商可为空按约定 |
key | 在线 API Key / 机器人密钥等(勿将真实密钥提交仓库) |
context.max-turns | 上下文保留轮数(默认示例常为 5) |
URL 示例(注释见主配置):
- Ollama:
http://localhost:11434/api/generate(以本机 Ollama 为准) - DeepSeek:
https://api.deepseek.com/v1/chat/completions - Document(LKE):腾讯云知识引擎会话地址(如
…/v1/qbot/chat/sse,以控制台为准)
本地 Ollama
- 安装 Ollama 后,常用命令:
shell
ollama -v
ollama pull deepseek-r1:1.5b
ollama run deepseek-r1:1.5b
ollama list
ollama rm deepseek-r1:1.5b- application 片段示例(Ollama)
yaml
mms:
ai:
type: Ollama
url: http://localhost:11434/api/generate
model: deepseek-r1:latest
key:
context:
max-turns: 5DeepSeek 官方接口
yaml
mms:
ai:
type: DeepSeek
url: https://api.deepseek.com/v1/chat/completions
model: deepseek-chat
key: sk-xxxxxxxx # 在 DeepSeek 控制台生成
context:
max-turns: 5Document(知识引擎 / LKE)
type: Document 时,url、key 等与厂商控制台的 bot / 应用 配置一致;具体字段以 OllamaService 中构建的请求体为准。生产环境务必使用环境变量或配置中心注入密钥,避免写死在仓库。
体验说明
- 支持多轮上下文、流式输出等能力以当前
mms-ai实现为准。 - 下方截图仅为示例,若 UI 或路径变更以
mms-ui为准。


文档修订(2026-04-01)
与主仓 mms-ai、mms-admin 中 mms.ai 配置对齐;删去「仅启动 mms-system」等过时表述。
