未来支持新功能、更长的上下文窗口、额外的模型大小和增强的性能。
官网:https://ollama.com
Github:https://github.com/ollama/ollama

下载后,进行运行容器安装。命令输入,即可运行各种指定模型
执行脚本
运行之后,项目默认监听 11434 端口,终端查看
三、LobeChat简介
LobeChat 是一个基于人工智能的聊天机器人平台,旨在为用户提供轻松创建和部署自定义聊天机器人的工具。它允许用户通过简单的图形界面构建、训练和部署聊天机器人,无需编写代码。这使得非技术用户也能够利用人工智能技术来增强他们的业务和服务。
四、LobeChat安装
docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 lobehub/lobe-chat
五、LobeChat运行
浏览器打开:http://localhost:3210
LobeChat设置Ollama模型
注意红框标准位置都必须正常,才能正常使用模型
开始聊天
关注公众号|顶层架构领域|精彩与您分享