欣淇
发布于 2026-05-12 / 1 阅读
0
0

🔥 Open WebUI:13.6k Stars 的开源 Web 界面,装了它 ChatGPT 就不用翻墙了

🔥 Open WebUI:13.6k Stars 的开源 Web 界面,装了它 ChatGPT 就不用翻墙了

项目地址:open-webui/open-webui | ⭐ 136,676 Stars | 🛠 Python | Open WebUI Team


老实说,现在谁还没几个本地大模型呢?但命令行对话实在太反人类了,每次都要 curl 或者 nc,输错一个字符就得重来。

一、核心能力概述

Open WebUI 就是为解决这个问题而生的 - 它给 Ollama、LocalAI 等本地模型提供了一个漂亮的 Web 界面,支持多模型切换、文件上传、图片生成,还有完整的用户管理系统。最骚的是它完全开源,不用翻墙就能用。

二、安装配置(必须有完整代码)

最简单的安装方式,直接一条命令搞定:

docker run -d -p 3000:8080 -e OPENAI_API_KEY=*** -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

想用本地模型?加上 Ollama 支持:

# 有 GPU 的情况
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

# 纯 CPU 的情况
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

装完直接访问 http://localhost:3000,比某些付费界面还流畅。

三、各平台接入(每个给完整代码块)

1. Ollama 集成

默认就支持,只要 Ollama 在运行就能自动识别所有已安装的模型。

2. OpenAI API 兼容

# 设置环境变量
export OPENAI_API_KEY="your-key-here"

# 启动容器
docker run -d -p 3000:8080 -e OPENAI_API_KEY=${OPENAI_API_KEY} -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

3. 文件上传功能

界面直接支持 PDF、Word、TXT 等文件上传,会自动解析内容并作为上下文。

四、进阶功能

  • 多用户支持:可以注册多个用户,每个用户独立配置
  • 模型管理:支持自定义模型列表,可以隐藏不常用的模型
  • 插件系统:支持各种插件扩展功能
  • 主题切换:支持明暗主题切换
  • 五、踩坑记录

    最坑的是网络问题,国内访问 GitHub 有时候会拉取不到镜像。解决办法是用国内镜像源:

    # 使用阿里云镜像
    docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always registry.cn-hangzhou.aliyuncs.com/open-webui/open-webui:ollama
    

    另外数据卷一定要挂载,不然容器重启后所有配置都没了。

    六、总结

    Open WebUI 解决了本地模型使用的最后一公里问题,让命令行工具变得可视化。对于搞技术的人来说,这玩意儿比那些所谓的企业级 AI 平台实用多了,还免费开源。

    标签:#AI工具 #本地部署 #Web界面 #Ollama


    评论