项目地址:CherryHQ/cherry-studio | ⭐ 45.4k Stars | 🛠 TypeScript | 作者 CherryHQ
老实说,这年头搞 AI 开发的,谁桌面上没三四个聊天窗口?OpenAI 一个、Claude 一个、Gemini 一个,再挂个本地 Ollama,切来切去烦得要死。
Cherry Studio 就是来解决这个问题的——一个桌面客户端,把 OpenAI、Gemini、Anthropic、Ollama、LM Studio 全塞一个窗口里,还自带 300+ 预配置 AI 助手。装完之后我直接把浏览器书签栏里的 AI 标签全清了。
最新版 v1.9.4,支持 MCP 协议,还能接知识库。
一、装这个不用动脑子
别整那些花里胡哨的,直接去 Release 页面下载对应平台的安装包:
Mac(Intel):
# 下载 dmg 安装
# https://github.com/CherryHQ/cherry-studio/releases/latest
# 选 Cherry-Studio-1.9.4-x64.dmg
Mac(Apple Silicon / M 系列):
# 选 Cherry-Studio-1.9.4-arm64.dmg
Windows:
# 选 Cherry-Studio-1.9.4-x64-setup.exe(安装版)
# 或 Cherry-Studio-1.9.4-x64-portable.exe(绿色版,解压即用)
Linux:
# Ubuntu/Debian
wget https://github.com/CherryHQ/cherry-studio/releases/download/v1.9.4/Cherry-Studio-1.9.4-amd64.deb
sudo dpkg -i Cherry-Studio-1.9.4-amd64.deb
# Fedora/RHEL
sudo rpm -ivh Cherry-Studio-1.9.4-x86_64.rpm
# 通用 AppImage
chmod +x Cherry-Studio-1.9.4-x86_64.AppImage
./Cherry-Studio-1.9.4-x86_64.AppImage
装完打开,不用配环境、不用装 Python 依赖,直接就是界面。
二、接入你的模型
最骚的操作是它支持的服务商列表——不是只接个 API 就完了,还内置了 Claude Web、Perplexity、Poe、腾讯元宝这些 Web 服务。
配置 OpenAI 兼容 API:
设置 → 模型服务商 → OpenAI
# 填上你的 API Key 和 Base URL 就行
Base URL: https://api.openai.com/v1
API Key: sk-xxxxxx
接本地 Ollama 模型:
设置 → 模型服务商 → Ollama
# 默认 http://127.0.0.1:11434
# Cherry Studio 自动检测你本地已 pull 的模型
同时开多个模型聊同一个话题:
# 在聊天界面点「+」号添加模型
# 同一个输入,同时发给 GPT-4o、Claude Opus 4.1、Gemini 2.5 Pro
# 回复并排显示,对比结果一目了然
踩过的坑都是泪:如果你用代理,记得在设置里配好代理地址,不然某些 Web 服务连不上。
三、300+ 助手直接用
内置了 300+ 预配置助手,涵盖翻译、编程、写作、分析各种场景。不用自己写 prompt,选一个直接开聊。
自己创建专属助手:
助手 → 创建助手
# 设置头像、名字、System Prompt
# 选默认模型
# 还能上传知识库文件(PDF/Word/Text)
MCP 支持——给助手接上外部工具:
设置 → MCP 服务
# 添加 MCP Server 地址
# 助手就能调用文件系统、数据库、API
四、WebDAV 备份,换机不慌
设置里配好 WebDAV,聊天的历史记录、助手配置、模型设置一键备份。换电脑直接恢复,不用重新配一遍。
总结
下载地址:github.com/CherryHQ/cherry-studio/releases
标签:#AI客户端 #LLM #开源 #CherryStudio #MCP