1. 安裝 Open WebUI
使用 Docker 安裝 Open WebUI 可以讓部署更加方便,以下是安裝步驟:
# 拉取 Open WebUI 映像檔
docker pull ghcr.io/open-webui/open-webui:latest
# 啟動 Open WebUI 容器
docker run -d --name open-webui \
-p 3000:3000 \
-v open-webui-data:/app/data \
ghcr.io/open-webui/open-webui:latest
2. 安裝並運行 Ollama Docker 容器
Ollama 主要透過 CLI 運行,但也可以使用 Docker 方式運行。
# 拉取 Ollama Docker 映像檔
docker pull ollama/ollama:latest
# 啟動 Ollama 容器
docker run -d --name ollama \
--runtime=nvidia \
-p 11434:11434 \
-v ollama-data:/root/.ollama \
ollama/ollama:latest
3. 連接 Open WebUI 到 Ollama
當 Open WebUI 和 Ollama 兩個 Docker 容器都在運行後,需要讓 Open WebUI 連接到 Ollama。
方法 1:透過 Docker Network 連接
# 建立 Docker 網路
docker network create ollama-net
# 重新啟動並加入網路
# 移除已運行的 Open WebUI 和 Ollama
docker stop open-webui ollama
docker rm open-webui ollama
# 重新啟動 Ollama 並加入網路
docker run -d --name ollama \
--network ollama-net \
-p 11434:11434 \
-v ollama-data:/root/.ollama \
ollama/ollama:latest
# 重新啟動 Open WebUI 並加入網路
docker run -d --name open-webui \
--network ollama-net \
-p 3000:3000 \
-v open-webui-data:/app/data \
ghcr.io/open-webui/open-webui:latest
方法 2:設定 Open WebUI 連接本機 Ollama
如果 Open WebUI 需要連接到運行在本機端的 Ollama,可設定環境變數。
docker run -d --name open-webui \
-p 3000:3000 \
-e OLLAMA_BASE_URL=http://localhost:11434 \
-v open-webui-data:/app/data \
ghcr.io/open-webui/open-webui:latest
4. 驗證連接是否成功
開啟瀏覽器,進入
http://localhost:3000
。登入 Open WebUI。
在設定中檢查是否成功連接到
http://ollama:11434
或http://localhost:11434
。測試與模型互動,確認運行正常。
這樣就成功使用 Docker 安裝 Open WebUI 並連接 Ollama 了!
沒有留言:
張貼留言