注意:
承接前文 AI-折腾记-01-(wsl2环境下运行docker+cuda:pytorch/onnxruntime)
以下过程无难度,故省略:
- Windows 上 Ollam 安装
- Ollam 添加模型 qwen2:1.5
- Ollam 命令行使用
上述可参考:
准备就绪后的表现为:
- 可以在 Web 浏览器中访问 http://127.0.0.1:11434/, 能得到如下输出 - Ollama is running
- 可以在 终端(cmd等) 中执行ollama run qwen2:1.5b, 能进行对话
WSL2 中使用 docker 运行 open-webui
- 运行 open-webui - 启用 CUDA 方式使用镜像 - open-webui/open-webui:cuda, 如果不启用 CUDA 则使用镜像- open-webui/open-webui:main- # 拉取 open-webui 镜像 sudo docker pull swr.cn-east-3.myhuaweicloud.com/kubesre/ghcr.io/open-webui/open-webui:cuda sudo docker tag swr.cn-east-3.myhuaweicloud.com/kubesre/ghcr.io/open-webui/open-webui:cuda ghcr.io/open-webui/open-webui:cuda- # 运行 open-webui 容器 sudo docker run --gpus all -it --rm -p 18080:8080 -v ./open-webui:/app/backend/data --add-host=host.docker.internal:host-gateway -e OLLAMA_BASE_URL=http://host.docker.internal:11434 -e HF_ENDPOINT=https://hf-mirror.com -e PIP_INDEX_URL=https://pypi.tuna.tsinghua.edu.cn/simple -e USE_CUDA_DOCKER=true --name open-webui --restart no ghcr.io/open-webui/open-webui:cuda- 上述 docker run 命令关键参数说明 - --gpus all使用 Docker CudaToolkit
- --add-host=host.docker.internal:host-gateway主机名映射
- -e OLLAMA_BASE_URL=http://host.docker.internal:11434指定使用宿主机的 Ollama, 如果有报错提示连接失败,可以考虑使用宿主机的局域网IP(举例:- -e OLLAMA_BASE_URL=http://192.168.1.2:11434)
- -e HF_ENDPOINT=https://hf-mirror.comhuggingface 模型加速
- -e PIP_INDEX_URL=https://pypi.tuna.tsinghua.edu.cn/simplepip 加速
- -e USE_CUDA_DOCKER=true启用 CUDA
 - 访问 http://127.0.0.1:18080/ 即可 - 注意: 如果 Open WebUI 界面模型下拉列表没有模型,但是终端执行 - ollama list的结果有模型,请设置环境变量- OLLAMA_HOST为- 0.0.0.0:11434, 然后重启 Ollama 即可。
评论 (0)