唠嗑

我本来一开始打算用源码跑的,然后发现越捣鼓越麻烦,最后还是用Python去跑,但是会踩一个坑,因为要从HuggingFace下载一个很小的模型,下不下来就会报错,我把这个丢到蓝奏云上去,如果你的环境不是Python3.11那你可以看我之前的文章通过MiniConda来管你多个Python环境

MiniConda的使用:尝试使用Miniconda来管理Python环境(Windwos)

Ollama的使用:捣鼓一下ollama的使用(Windows)

Open-WebUI需要的模型:蓝奏云 提取码:bb5v

Open-WebUI GIthub:https://github.com/open-webui/open-webui

快速运行

参考官方文档来,就两个命令

pip install open-webui
open-webui serve

出错

如果你在运行的时候出现了和我一样的错误

这时候就需要下载所需要的模型,放到路径:C:\Users\你的用户名\.cache\huggingface\hub

然后重新运行即可成功跑起来open-webui!

再启动Ollama就行

ollama serve

就可以开始使用啦!