快速部署指南
第1步:启动本地大模型服务
- 使用Ollama工具:首先下载并安装Ollama软件。安装完成后,在终端输入`ollama serve`命令启动服务。随后,通过命令`ollama run qwen`即可激活阿里巴巴开源的Qwen通义千问模型。这一过程详细说明可参考过往文章《两步轻松在个人电脑部署Llama、Qwen等开源大模型》。

第2步:安装Docker Desktop
- 访问[Docker Desktop官方网站](https://www.docker.com/)下载并安装Docker Desktop软件,为后续步骤做准备。
第3步:本地部署Lobe Chat
- 打开命令行工具,执行以下命令来启动Lobe Chat:
```
docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 lobehub/lobe-chat
```
- 成功后,访问[Lobe Chat预览页面](https://chat-preview.lobehub.com/)。
#配置与使用
- 在网站右上角点击“设置”。
- 在设置中,选取“语言模型”,查找并选择“Ollama”作为服务提供商,输入接口代理地址`http://127.0.0.1:11434`,完成配置检查。
- 点击“获取模型列表”,从Ollama提供的选项中选择“qwen”模型。
- 返回聊天界面,设定当前使用的模型为“Ollama-qwen”,你的个人AI助手便准备就绪,可以开始互动了。
模型灵活性
- 如需更换模型,Lobe Chat支持Ollama生态内的所有模型,只需根据需求调整设置。
- 除了Ollama,Lobe Chat还兼容多种主流AI大模型,仅需输入相应的API密钥即可接入使用,进一步扩展了定制化潜力。
通过以上步骤,你将获得一个功能全面且个性化的AI聊天机器人,享受无限制的免费使用体验。