首页 » 排名链接 » 【本地部署大模型保姆级教程之Ollama】无需联网的AI神器!(神器模型联网部署保姆)

【本地部署大模型保姆级教程之Ollama】无需联网的AI神器!(神器模型联网部署保姆)

落叶飘零 2024-11-02 21:58:22 0

扫一扫用手机浏览

文章目录 [+]

在CPU下运行:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

在GPU下运行:docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

安装完成通过本地地址:http://127.0.0.1:3000 进行访问,看到下方页面说明安装成功!

【本地部署大模型保姆级教程之Ollama】无需联网的AI神器!(神器模型联网部署保姆) 排名链接
(图片来自网络侵删)

三、使用教程1、点击Sign up注册账号即可使用

2、下载我们想要的模型

3、选择下载的模型,进行对话

开始在本地体验各种大模型吧!

标签:

相关文章