🗄️ OpenViking:23.9k Stars 的上下文数据库,用文件系统管理 AI Agent 的大脑
项目地址:volcengine/OpenViking | ⭐ 23,901 Stars | 🐍 Python | 🏢 Volcengine (ByteDance)
老实说,搞 AI Agent 最头疼的问题之一就是上下文管理。记忆散落在代码里,资源堆在向量数据库里,技能东一个西一个。传统 RAG 又是扁平存储,检索链跟黑盒一样,出错了都不知道从哪查起。
火山引擎开源的 OpenViking 就是来解决这个问题的——它不是又一个向量数据库,而是一个专为 AI Agent 设计的上下文数据库,用 文件系统范式 统一管理 Agent 需要的所有上下文:记忆、资源和技能。
📂 核心思路:文件系统范式
最骚的操作是,OpenViking 完全抛弃了传统 RAG 的碎片化向量存储模型。你管理 Agent 的大脑,跟在命令行里管文件没区别:
viking://
├── resources/ # 外部资源(文档、代码库)
├── memories/ # Agent 记忆(自动压缩提取)
└── skills/ # Agent 技能
L0/L1/L2 三层分级加载,按需取用,大幅降低 Token 开销。传统 RAG 的扁平向量存储被替换为目录定位 + 语义搜索的递归检索方式,而且可视化检索轨迹让你知道 Agent 为什么找到(或没找到)某个信息。
⚡ 一分钟上手
pip install openviking --upgrade --force-reinstall
# 交互式初始化
openviking-server init
# 验证配置
openviking-server doctor
# 启动服务
openviking-server
CLI 也支持 npm 直接安装:
npm i -g @openviking/cli
启动后直接操作:
# 查看状态
ov status
# 添加 GitHub 仓库作为资源
ov add-resource https://github.com/volcengine/OpenViking
# 用文件系统路径查看
ov ls viking://resources/
ov tree viking://resources/volcengine -L 2
# 语义搜索
ov find "什么是上下文数据库"
# grep 式精确检索
ov grep "context" --uri viking://resources/volcengine/OpenViking/docs
🧠 VikingBot:内置 Agent 框架
OpenViking 自带 VikingBot,一个基于上下文数据库构建的 AI Agent 框架:
pip install "openviking[bot]"
# 启动带 Bot 的服务
openviking-server --with-bot
# 开聊
ov chat
Docker 镜像已内置 VikingBot,默认一起启动。
🎯 支持的 VLM 和 Embedding Provider
OpenViking 的灵活性不错——VLM 支持 Volcengine、OpenAI、Codex(OAuth)、Kimi、GLM;Embedding 支持 Volcengine、OpenAI、Azure、Jina、Ollama、Gemini 等十余种。你可以用火山引擎的豆包模型当 VLM + Embedding 全栈,也可以用 Ollama 本地跑,丰俭由人。
配对示例(GitHub 官方推荐)——Volcengine 做 Embedding + Codex 做 VLM:
{
"embedding": {
"dense": {
"provider": "volcengine",
"model": "doubao-embedding-vision-251215",
"api_key": "your-volcengine-api-key"
}
},
"vlm": {
"provider": "openai-codex",
"model": "gpt-5.3-codex"
}
}
总结
如果你的 Agent 项目开始觉得上下文管理是个瓶颈,OpenViking 值得一试。pip install openviking 一分钟就能体验。