免费开源AI软件.桌面单机版,可移动的AI知识库,察元 AI桌面版:全模型支持的第一个例子 给察元AI挂上Ollama的下午
全模型支持的第一个例子 给察元AI挂上Ollama的下午很多人对察元AI 桌面单机版的第一个误解是默认要联网用 OpenAI 的钥匙才能跑。其实并不。chayuan-desktop 的网关层在设计时就把本地推理放在和厂商云一样的位置这一篇用 Ollama 做演示说一下完整的接入过程让本地离线知识库 加 本地大模型 的组合在一台普通电脑上跑通。为什么先选 Ollama。它把模型权重的下载、运行、API 暴露这三件事都打包了不用自己折腾 llama.cpp 命令行也不用自己装 CUDA 工具链。安装包在 ollama.com 拿一路下一步。装完后命令行运行 ollama pull qwen2.5:7b 把一个国产模型权重拉下来再运行 ollama serve 起服务本地的 11434 端口会暴露一个 OpenAI 兼容的接口。接到 chayuan-desktop。打开主界面右上的设置进 模型供应商新建一个 OpenAI 兼容路由的供应商。地址填 http://127.0.0.1:11434/v1钥匙随便填一个非空字符串因为 Ollama 默认不校验。点保存察元AI 会去探测 /v1/models把 qwen2.5:7b 这条记录拉回来。在对话切换器里就能选到这个本地模型。第一句对话试一下。问一句日常问题看看流式输出是否正常、tokens/s 大致多少。我那台 i5 加 16G 的电脑上 7B 模型 CPU 跑大概 6-8 tokens/s不快但是能用。如果你有显卡Ollama 会自动用 GPU。接知识库这一段更值得讲。把一份 PDF 拖进对话窗口触发一次文档 RAG 入库。chayuan-desktop 默认用的是内嵌的 bge-m3-onnx 嵌入模型跑在 CPU 上做嵌入计算。重排可以选择跳过或者也走本地。整个 RAG 链路在 sidecar 进程内闭环模型推理走 Ollama嵌入走 ONNX向量库是 sqlite-vec。整套链路里一次外网调用都没有发生。接下来是想象一下整套组合的好处。第一模型钥匙不再是必需品单机版可以彻底不联外网第二私有文档完全不出本机第三跟 chayuan-wps WPS AI 插件 共用同一份 KB 和模型配置加载项调起来的对话也走 Ollama体验一致第四等你有了显卡把模型规模升到 14B 或 32B整个流程不需要重新走只需要重新拉一份权重并在 Ollama 里切换。需要注意几个细节。Ollama 默认会启动后台服务重启 chayuan-desktop 不会重启它端口冲突的可能性要排查Ollama 的模型路径默认在 ~/.ollama磁盘空间要预留Ollama 的并发窗口默认有限一次问答里多 Tab 同时跑会排队体感上像变慢Ollama 不支持函数调用 tools 的所有模型遇到工具调用的对话场景要选合适的模型权重。如果你已经熟悉 LM Studio、vLLM、Xinference这套接入方式同样可用OpenAI 兼容路由是 chayuan-desktop 网关层的统一接入点。差别只在于模型规模和性能链路本身一致。免费开源的AI软件 加上本地推理凑成一台真正完全自己掌控的 AI 工作站最大障碍其实是模型权重的下载而不是 chayuan-desktop 这一边。下午搞定剩下的就是拿来用。