🎨 Flowise:52.7k Stars 的可视化 AI Agent 构建器,拖拽搭出你的智能工作流
项目地址:FlowiseAI/Flowise | ⭐ 52,682 Stars | 🛠 TypeScript | 作者 FlowiseAI
老实说,每次想搭个 AI 聊天机器人或者自动化流程,都得走一遍老三样:装 LangChain、写 Python 脚本、调试 prompt、踩坑依赖版本。搞完一个项目,代码量不小,但真正有价值的部分其实就那个流程图。Flowise 直接把中间步骤砍了——拖拽式搭 AI Agent,连代码都不用写。
别误会,这不是那种只能做 Demo 的玩具。Flowise 底层跑的是完整的 LangChain 生态,支持 LLM 接入(OpenAI、Claude、Ollama、DeepSeek 全兼容)、RAG 管道、Agent 工具链、Memory 机制,所有节点都支持自定义配置。
⚡ 一条命令启动
Node.js >= 20 就行:
npm install -g flowise
npx flowise start
打开 http://localhost:3000,直接进入可视化编辑器。
Docker 用户更简单:
docker run -d --name flowise -p 3000:3000 flowise
或者用 docker-compose,项目仓库 docker/ 目录下有现成的 .env 模板。
🧩 核心能力拆解
Flowise 的核心是节点式编排,每个节点做一件事,连线组装成完整流程。
支持的节点类型包括:
最骚的是每个节点都带着完整的配置面板,API Key、model name、temperature 随你调,不用切出去写配置文件。
🎯 实战:搭一个 RAG 问答机器人
假设你要做一个"读文档回答问题"的 AI 助手,在 Flowise 里几步搞定:
2. 拖一个 OpenAI Embeddings 连上
3. 拖一个 Chroma Vector Store 做向量存储
4. 拖一个 ChatOpenAI(设 model: gpt-4o)
5. 拖一个 Conversational Retrieval QA Chain
6. 全部连线,点右上角"Save"
搞定。API 直接暴露成 REST 端点,前端用 fetch 就能调:
curl -X POST http://localhost:3000/api/v1/prediction/YOUR-CHATFLOW-ID \
-H "Content-Type: application/json" \
-d '{
"question": "这个文档里说了一堆什么?",
"history": []
}'
返回 JSON 直接渲染到页面,连后端都不用写。
🐳 生产环境部署
开发完了要上线,Flowise 提供了完整的 Docker 部署方案:
version: '3.1'
services:
flowise:
image: flowiseai/flowise
ports:
- '3000:3000'
environment:
- PORT=3000
- DATABASE_PATH=/root/.flowise
- SECRETKEY_PATH=/root/.flowise
- LOG_PATH=/root/.flowise/logs
volumes:
- ~/.flowise:/root/.flowise
restart: always
支持 SQLite 和 PostgreSQL 两种数据库后端,数据持久化没问题。
⚠️ 踩坑记录
NODE_OPTIONS="--max-old-space-size=4096" 再跑maxConverstaionBufferSizeBaseNode 类,但文档写得不太清楚,建议直接看源码 examples/总结
Flowise 的价值在于把 AI 应用开发的抽象层级从代码拉到了流程图。不是让你不写代码,而是让你在搭架构阶段零成本试错。适合:
一行命令启动,拖拖拽拽出生产级 API,省掉那堆 glue code。