欣淇
发布于 2026-05-12 / 2 阅读
0
0

🦀 DeepSeek TUI:26k Stars 的终端编码 Agent,`npm install -g deepseek-tui` 就能用 DeepSeek V4

🦀 DeepSeek TUI:26k Stars 的终端编码 Agent,`npm install -g deepseek-tui` 就能用 DeepSeek V4

项目地址:https://github.com/Hmbown/DeepSeek-TUI | ⭐ 26,173 Stars | 🛠 Rust | 作者 Hmbown | MIT License

老实说,DeepSeek V4 发布之后,我一直想要一个能直接在终端里用的编码 Agent——不需要打开 IDE,不需要开浏览器,装完就能跟模型唠嗑干活的那种。DeepSeek TUI 就是干这事的。

它是个 Rust 写的终端编码 Agent,deepseek 命令启动,支持 TUI 交互界面、1M token 上下文、流式思维链显示,还有 auto mode 自动给你选模型和推理等级。

安装:一行命令

5 种安装方式,选你顺手的:

# npm 安装(最简单)
npm install -g deepseek-tui

# 或者 cargo 安装
cargo install deepseek-tui-cli --locked
cargo install deepseek-tui --locked

# 或者 macOS Homebrew
brew tap Hmbown/deepseek-tui
brew install deepseek-tui

# 或者 Docker
docker run --rm -it \
  -e DEEPSEEK_API_KEY \
  -v "$PWD:/workspace" \
  ghcr.io/hmbown/deepseek-tui:latest

装完先配 API Key:

deepseek auth set --provider deepseek
deepseek doctor        # 验证一切就绪

核心玩法

启动交互式 TUI 或者直接扔命令:

deepseek                                         # 交互式 TUI
deepseek "explain this function"                 # 单次提问
deepseek --model auto "fix this bug"             # 自动选模型+推理等级
deepseek --yolo                                  # 无确认直接执行

最骚的操作是 Auto Modedeepseek --model auto 启动后,每次对话前先用便宜的 deepseek-v4-flash 做一次路由判断——简单问题走 Flash + 不开推理,复杂编码/调试/架构问题自动升到 Pro + Max 推理。你不用手动切模型,它自己判断。

支持三种模式:

  • Plan — 只读探索,不动文件
  • Agent — 交互式,每次操作需确认
  • YOLO — 全自动,操作直接执行
  • 工具集

    这玩意儿不是 chat 玩具,是真的能干活:

  • 文件操作 — 读写编辑,apply patch
  • Shell 执行 — 跑命令、编译、测试
  • Git 集成 — 自动前后快照,/restore 回滚
  • Web 搜索/浏览 — 查文档找 bug
  • MCP 协议 — 接 MCP Server 扩展能力
  • 子 Agent — 派子任务并行执行
  • LSP 诊断 — 改完代码自动跑 rust-analyzer/pyright 检查错误
  • Session 恢复deepseek resume --last 接着干
  • 适合谁用

    如果你日常靠终端干活、不想每次写代码都要开个 VS Code,DeepSeek TUI 是个好东西。特别是 DeepSeek V4 用户——原生 1M token 上下文,prefix-cache 省 token 钱,Shift+Tab 切推理等级,体验很流畅。

    给个总结:

  • 安装极简 — npm install -g 搞定,5 种方式任选
  • 2. Auto Mode — 智能路由模型+推理等级,不用手动切

    3. 工具链完整 — 文件/Shell/Git/MCP/子 Agent 全有

    4. 原生 DeepSeek V4 — 1M context,流式思维链,cache 感知计费

    5. 跨平台 — Linux/macOS/Windows/ARM64/Docker 都支持


    评论