[English below | 英文见文末]
🧠 MemPalace:51k Stars 的本地 AI 记忆系统,录音级回忆,不调 API 不联网
你的 AI 对话历史是不是跟金鱼一样——七秒就忘?每次聊新话题都得重新交代上下文?
MemPalace 就是来治这个病的。51,804 颗星,500 道题召回率 96.6%,零 API 调用、零云端依赖。纯本地运行的 AI 记忆系统。
一句话
把你跟 AI 聊过的每句话原样存下来,搜的时候按语义找回来——不总结、不提炼、不编造。
装它
uv tool install mempalace
mempalace init ~/projects/myapp
uv tool install 会在隔离环境装好 CLI,直接加到 PATH。用 pip 也行:pip install mempalace。
跑起来
# 把项目文件「挖」进记忆宫殿
mempalace mine ~/projects/myapp
# 把 Claude Code 会话也挖进去
mempalace mine ~/.claude/projects/ --mode convos
# 搜索
mempalace search "为什么我们用 GraphQL 替换了 REST"
# 新会话自动加载上下文
mempalace wake-up
为什么「不总结」反而是优势
大部分记忆系统会做「摘要→存向量→检索」。问题?摘要丢了细节,向量检索有语义漂移。
MemPalace 反着来:原文照存,逐字检索。搜出来的就是你说过的原话,不是 AI 认为你「可能想表达」的东西。
Raw (纯语义搜索,无启发式、无 LLM) → R@5 = 96.6%
Hybrid v4 (450 道未见过的题) → R@5 = 98.4%
两个数字都不要 API key,不要云端,不要任何 LLM。
结构化的记忆宫殿
不是扁平向量库。MemPalace 用「宫殿」隐喻组织记忆:
搜索时可以限定在某个翼里找,不会把 A 项目的上下文串到 B 项目。
给 Claude Code 装上长期记忆
MemPalace 提供了两套整合方案:
2. MCP server:29 个 MCP 工具,覆盖读写、知识图谱、跨翼导航、代理日记
# 注册 MCP 工具
mempalace mcp --register
然后你的 Claude Code 就能通过 mempalace_search、mempalace_mine 等工具实时存取记忆。
知识图谱也在本地
除了语义搜索,MemPalace 还有一个时间线知识图谱——实体、关系、有效期,全存在本地 SQLite 里。
# 添加关系
mempalace kg add "Claude Code" "depends_on" "MCP" --valid-from "2025-01"
# 查询时间线
mempalace kg timeline "Claude Code"
# 失效旧知识
mempalace kg invalidate "Claude Code" "depends_on" "legacy API"
最后
MemPalace 解决的问题很简单:AI 记不住,但你用得着。51k 星不是白来的——它是目前 GitHub 上最受关注的本地记忆系统,没有之一。
uv tool install mempalace
mempalace init ~/projects/myapp
给你的 AI 装个大脑吧。免费的。
🇬🇧 English Version
🧠 MemPalace: 51k⭐ Local AI Memory System — Verbatim Recall, Zero API Calls, Zero Cloud
Your AI's memory is worse than a goldfish's (7 seconds, anyone?). Every new session, you re-explain everything from scratch.
MemPalace fixes that. 51,804 stars, 96.6% R@5 on LongMemEval (500 questions), zero API calls, zero cloud dependencies. A fully local AI memory system.
The idea
Store every word you've ever said to your AI. Retrieve it by semantic search. No summarization, no extraction, no paraphrasing. What you get back is what you actually said.
Install
uv tool install mempalace
mempalace init ~/projects/myapp
Or: pip install mempalace.
Quickstart
mempalace mine ~/projects/myapp # project files
mempalace mine ~/.claude/projects/ --mode convos # Claude Code sessions
mempalace search "why did we switch to GraphQL" # search
mempalace wake-up # load context for new session
Why verbatim storage wins
Most memory systems: summarize → embed → retrieve. Problem? Summaries lose detail, embeddings drift.
MemPalace: store verbatim, search raw. Retrieved text is the original, not an LLM's guess at what you "might have meant."
| Mode | R@5 | LLM Required |
|---|---|---|
| Raw semantic search | 96.6% | None |
| Hybrid v4 (held-out 450q) | 98.4% | None |
No API key. No cloud. No LLM.
Structured memory palace
Not a flat vector store. Real structure:
Search scoped to a wing. No cross-project context leakage.
Claude Code integration
Two paths:
2. MCP server — 29 tools for read/write, knowledge graph, cross-wing navigation
mempalace mcp --register
Your agent can now call mempalace_search, mempalace_mine, etc., in real time.
Knowledge graph (local)
Entity-relationship graph with validity windows. Backed by local SQLite.
mempalace kg add "Claude Code" "depends_on" "MCP" --valid-from "2025-01"
mempalace kg timeline "Claude Code"
mempalace kg invalidate "Claude Code" "depends_on" "legacy API"
Bottom line
Your AI forgets. You remember. MemPalace bridges that gap. 51k stars don't lie — it's the most-watched local memory system on GitHub.
uv tool install mempalace
mempalace init ~/projects/myapp
Give your AI a brain. It's free.