MMS-AI
简介
目前mms系统已经整合了本地话大模型和在线大模型2种方式,具体看下面教程。
本地大模型
本地安装Ollama
- 首先是给你的电脑安装Ollama Ollama,这个网上教程非常多,基本就是到官网下载对应自己系统的安装包,傻瓜式安装,它会自己设置环境变量。
- 常用的Ollama命令:
shell
#查看版本
ollama -v
#安装模型
ollama install deepseek-r1:1.5b
#运行模型
ollama run deepseek-r1:1.5b
#列出模型
ollama list
#删除模型
ollama rm deepseek-r1:1.5b
进行部署大模型
接下来就是安装大模型,这里我们选择使用安装:deepseel:7b
, 获取安装命令
shell
#它会先下载,后直接运行启动
ollama run deepseek-r1
后台参数配置
type:切换模式,本地(Ollama)/在线(Deepseek) url:Ollama的地址 model:大模型名称(避免出错使用 ollama list,查看后复制)
yaml
mms:
ai:
type: Ollama
url: http://localhost:11434/api/generate
model: deepseek-r1:latest # 使用的模型名称,ollama list 查看全名
key:
context:
max-turns: 5 #// 默认保留5轮对话
启动体验
text
http://localhost:8080
- 启动mms-system模块,默认项目启动地址就是聊天界面
- 支持上下文多轮问答
- 支持打字聊过输出效果
- 支持暂停输出
- 支持代码高亮
官方DeepSeek-API
- 调整配置文件
- 这里要注意: type:切换模式:Deepseek url:为官方接口API的URL model:deepseek-chat key:需要在deepseek自己生产一个替换
yaml
mms:
ai:
type: DeepSeek
url: https://api.deepseek.com/v1/chat/completions
model: deepseek-chat
key: sk-1b0abc249fea4ee982110*******
context:
max-turns: 5 #// 默认保留5轮对话
启动体验
text
http://localhost:8080
- 启动mms-system模块,默认项目启动地址就是聊天界面
- 支持上下文多轮问答
- 支持打字聊过输出效果
- 支持暂停输出
- 支持代码高亮