免费开源AI软件.桌面单机版,可移动的AI知识库,察元 AI桌面版:本地离线知识库的真完全离线 内网无外网装察元AI的拼装步骤
本地离线知识库的真完全离线 内网无外网装察元AI的拼装步骤政企客户找我们部署察元AI 桌面单机版最常见的要求是 完全不联外网。chayuan-desktop 在这件事上是天然契合的因为它本来就是单机优先。但首装那一台仍然需要一些预备工作这一篇给一份内网无外网的装包流程。先把场景说清楚。内网无外网的意思是部署目标电脑不能访问公网连 GitHub、Hugging Face、各家厂商 API 都不能直连。模型供应商必须是内网部署的本地推理服务模型权重必须从可信镜像拿。这种场景下察元AI 桌面单机版的优势是数据全本地但首装依赖准备要做扎实。第一步准备物料清单。在一台有外网的中转机上把所有要带过去的东西拉齐。物料包括chayuan-desktop 安装包按目标 OS 选 msi/dmg/deb操作系统依赖包Linux 上的 webkit2gtk、libssl3 等 deb模型权重bge-m3-onnx、RapidOCR、bce-reranker-base 三套本地推理服务安装包Ollama 或 vLLM和模型权重比如 qwen2.5-7b、deepseek-7b。第二步打包成离线介质。所有文件放到一块加密 U 盘或者光盘镜像做完整性校验每个文件配 sha256按介质交接给目标电脑现场。这种交接在 等保合规 场景里通常有专门 SOP要走资产审批和介质入库。第三步目标电脑上装系统依赖。Linux 上 dpkg -i 或者 rpm -i 装 webkit2gtk、libssl3、libgtk-3-0、libsqlite3-0 这些。Windows 上装 WebView2 Runtime如果系统没自带。macOS 上一般不需要装额外依赖。第四步装 chayuan-desktop 本体。msi/dmg/deb 装上目标目录默认即可。第五步跳过 FirstRunSetup 的预下载。首启动向导第三屏问要不要下载嵌入模型权重。无外网环境点跳过直接进主界面。然后退出 chayuan-desktop。第六步把模型权重拷进 CHAYUAN_ROOT/models 对应目录。具体子目录结构在仓库 packaging 文档里有列。一般包括 embeddings/bge-m3-onnx、ocr/rapid-ocr、reranker/bce 三个子目录每个目录里有 model.onnx、tokenizer.json 等文件。拷贝完成后再启动 chayuan-desktop会自动识别已有的权重。第七步部署本地推理服务。在内网另一台机器或者同一台部署 Ollama 或 vLLM。Ollama 的安装包和模型权重都需要内网镜像。Ollama 装好之后命令行 ollama serve 起服务监听 11434。把 chayuan-desktop 配置里的 OpenAI 兼容路由 供应商指到 http://内网IP:11434/v1。第八步跑通端到端测试。新建对话问一句话验证模型能跑拖一份 PDF 进对话窗口验证 RAG 入库和引用气泡能跑建一个 folder-sync 知识库验证持续同步能跑。这三步全过算完整可用。国产化支持下的内网部署有几个特别点。麒麟 UOS 上的 SELinux 策略可能拦截 sqlite-vec 加载提前调整策略龙芯 loongarch64 平台需要专门构建的 chayuan-desktop 二进制信创清单里的国产厂商接入需要内网部署对应的私有化版本比如某些国产 LLM 在企业内部署的话钥匙地址变成内网 IP。无外网部署的几个常见错误。一是没把模型权重拷全首次嵌入计算失败二是 OpenAI 兼容路由 地址写错请求 timeout三是依赖 deb 没拷全dpkg -i 报缺包四是文件系统时间不一致TLS 证书校验失败。这几条对照排查能解决八成问题。WPS AI 插件 chayuan-wps 在内网部署时加载项的安装包跟桌面单机版一并交付。加载项的服务器地址配置成 127.0.0.1:62581 或者本机内网 IP认证模式选 none。整套链路全在内网里闭环。完成内网部署之后免费开源的AI软件 加 本地离线知识库 加 全模型支持 这三件事在政企客户那里就有一份完整的落地方案。所有数据不出域所有模型在内网运行所有依赖可审计。