欣淇
发布于 2026-05-14 / 0 阅读
0
0

🧠 MemPalace:52k Stars 的开源 AI 记忆系统,96.6% 召回率无需 API

🧠 MemPalace:52k Stars 的开源 AI 记忆系统,原始文本存储,96.6% 召回率无需 API

你的 AI Agent 终于不会"转头就忘了"——本地运行,零 API 费用,pip install mempalace 就能用。

为什么需要这个?

所有用 AI Agent 编程的人都会遇到同一个尴尬:跟 Claude Code 聊了半天,第二天打开新会话,它完全不记得昨天讨论过的架构决策。Mem0、Mastra、Hindsight 这些方案各有各的招,但 MemPalace 的路子最直接——不总结、不提取、不 paraphrasing,直接把原始对话文本原样存下来,用语义搜索往回找。

实话说,这玩意儿一看 README 我就觉得对味了。52k Stars 不是白拿的。

核心架构

MemPalace 的组织方式有点像你家书架:

  • Wings(翼)—— 对应不同项目或人员
  • Rooms(房间)—— 按主题划分
  • Drawers(抽屉)—— 原始对话内容,一字不改
  • 检索层默认用 ChromaDB,但你可以自己换后端,接口定义在 mempalace/backends/base.py,一行代码不碰就能换。

    性能数据

    这组数字挺硬核的——全部可复现,不需要任何 API Key:

    | 模式 | R@5 | 需 LLM |

    |------|-----|--------|

    | Raw(纯语义搜索) | 96.6% | ❌ |

    | Hybrid v4 | 98.4% | ❌ |

    | Hybrid + LLM rerank | ≥99% | ✅ 任意模型 |

    96.6% 那行是零 LLM、零 API、纯本地跑的。说实话,这个数字直接刷新了我的认知。

    上手实操

    一行命令装好:

    uv tool install mempalace
    mempalace init ~/projects/myapp
    

    把项目文件"挖"进 Palace:

    # 挖掘项目文件
    mempalace mine ~/projects/myapp
    
    # 挖掘 Claude Code 会话记录
    mempalace mine ~/.claude/projects/ --mode convos
    
    # 搜索
    mempalace search "为什么选择了 PostgreSQL 而不是 MySQL"
    
    # 新会话前加载上下文
    mempalace wake-up
    

    💡 最骚的操作是 mempalace wake-up —— 它会自动把相关的历史上下文喂给新会话,Agent 一下子就"想起来"了。

    MCP 服务器

    附带 29 个 MCP 工具,覆盖 Palace 读写、知识图谱操作、跨翼导航、抽屉管理和 Agent 日记。Claude Code 里配好就能直接在聊天里操作记忆库。

    跟同类怎么比?

    MemPalace 官方没做横向对比(他们觉得不同项目用的指标不同,放一起不诚实),但有几个点很明确:

  • Mem0 走的是总结+提取路线,MemPalace 是全量原始文本
  • Mastra 更偏框架集成,MemPalace 是独立 CLI + MCP
  • 全本地运行,不需要任何云服务
  • 结语

  • pip install mempalaceuv tool install mempalace 就能用
  • 96.6% 召回率的纯语义搜索,不需要 LLM 不需要 API Key
  • MCP 服务器让 Claude Code / Gemini CLI 直接读写记忆
  • 本地优先,数据不离开你的机器
  • Knowledge Graph + Verbatim 存储双保险
  • 如果你也在被 AI Agent"失忆"困扰,这玩意儿值得一试。


    🧠 MemPalace: 52k Stars Open-Source AI Memory System with 96.6% Retrieval Recall Without Any API

    Your AI Agent finally won't forget overnight — runs locally, zero API costs, pip install mempalace and you're set.

    Why This Exists

    Every AI coding agent user hits the same awkward moment: you've been chatting with Claude Code all day about architecture decisions, open a new session tomorrow, and it remembers nothing. Mem0, Mastra, Hindsight — they all have their approaches, but MemPalace takes the most direct route: no summarizing, no extracting, no paraphrasing. It stores raw conversation text verbatim and retrieves it with semantic search.

    Architecture

    Think of it like your bookshelf:

  • Wings — different projects or people
  • Rooms — topically organized
  • Drawers — original conversation content, unchanged
  • The retrieval layer defaults to ChromaDB, but you can swap backends via mempalace/backends/base.py without touching anything else.

    Quickstart

    # Install
    uv tool install mempalace
    mempalace init ~/projects/myapp
    
    # Mine content
    mempalace mine ~/projects/myapp
    mempalace mine ~/.claude/projects/ --mode convos
    
    # Search & load context
    mempalace search "why did we switch to GraphQL"
    mempalace wake-up
    

    Key Features

  • 96.6% R@5 on LongMemEval with pure semantic search — no LLM, no API calls
  • 29 MCP tools for palace reads/writes, knowledge graph operations, and agent diaries
  • Local-first: nothing leaves your machine unless you opt in
  • Verbatim storage: no lossy summarization, no hallucinated context
  • Wrap Up

  • pip install mempalace or uv tool install mempalace to get started
  • 96.6% recall without any LLM or API key
  • MCP server for Claude Code / Gemini CLI direct memory access
  • Local-first, your data stays on your machine

  • 评论