1. 为什么需要大模型框架
用 LLM API 就像造房子时只给你一把锤子 —— 能敲钉子没错,但你要造完整一栋房子,还需要水、电、管道、结构、施工计划等等工具和组织方式。
大模型框架(比如 LangChain、LlamaIndex、Haystack)就是这些“成套的工具箱 + 工程模型”,它们能帮你把语言模型快速、稳定、可扩展地用在真正的应用中。
是一个基础聊天机器人的链条,传入提示词,输出对应的结果流程为:
但是不能只靠调用大模型 API,例如:
你可能一开始只是这样写代码:
response = openai.ChatCompletion.create(model="gpt-4",messages=[{"role": "user", "content": "请推荐三本书"}]
)
看似简单好用,但只要你做下面这些事情,就马上卡壳了:
❌ 场景一:串联多个步骤(多轮思考、逻辑判断)
你想让 LLM:
先调用知识库;
再判断答案是否不完整;
如果不完整,再调用另一个模型补足。
你怎么办?原始代码写死逻辑就麻烦了。框架可以让你用“链(Chain)”或“Agent”来封装这类流程,非常容易扩展。
❌ 场景二:RAG(基于检索的生成)
你希望用户问公司政策时,回答来自你上传的文档或数据库,而不是胡编。
🔧 这就需要:
上传 Word、PDF、网页、甚至数据库资料;
分块(文本切割),向量化(Embedding);
存入向量数据库(如 FAISS、Milvus、Qdrant);
每次问答先去搜索,再把结果加进 prompt;
👉 这些手工做很复杂。
✅ 用像 LangChain、LlamaIndex 的 RAG 模块几行代码就搞定。
❌ 场景三:多模型、多任务集成
你希望系统:
用户提问 → Claude 回答;
遇到结构草图 → 用 GPT-4V;
编程代码 → 用 StarCoder;
语义分析 → 用本地模型;
你要怎么切换?怎么统一接口?怎么路由调用逻辑?
✅ 框架可以一键适配 OpenAI、Anthropic、Cohere、本地模型、HuggingFace 等,统一抽象出 Model 类调用接口。
而且还能一点点扩展,而且避免你代码中充满:
if model == 'gpt-3.5':xxx
elif model == 'claude-3':yyy
❌ 场景四:上下文太长,Token 超限
有些模型支持 4K、8K、128K token 长度,还有结构化 Memory 管理(像聊天记录)。
框架可以提供:
记忆模块(ConversationMemory);
自动 Token 计数;
超过长度自动截取、压缩(如摘要)、设定窗口大小。
❌ 场景五:数据结构化输出、验证困难
你希望模型输出 JSON、Markdown、或函数调用参数。
很多框架内置了:
输出格式(structured output)校验;
函数调用(Function/Tool Call)自动填参;
Pydantic schema 校验;
甚至能自动触发真实接口调用。
🛠️ LangChain 和 OpenAI function call / tool call 完美配合。
2. 常见大模型框架推荐
对 LLM 的运行流程、输出、费用统计、错误监控也是一
个非常重要的步骤,这些功能 基础的 LLM 均没有提供,需要程序员自行开发与对接,开发这些功能的耗时甚至会超过业务的部分,极大提升了 AI 应用开发的难度。为了解决以上这些问题,AI 应用开发框架应运而生.
名称 | 说明 |
LangChain | 功能最全,组件最多,大量教程和社区支持 |
Llamalndex | 专注文档处理和 RAG,支持各种数据源 |
Haystack | 原本做问答检索系统,企业级稳定性强 |
RAGflow/DSPy | 更多实验性框架,支持自动优化、搜索提示词 |
Flowise | 可视化的 LLM 流程搭建工具,适合非技术人员 |
其中最热门、更新速度最快、最稳定的框架就是LangChain,而且目前 LangChain 提供了 Python 和 JavaScript 两个版本,适配了当前 AI 环境下最热门的两种语言。
- LangChain-Python:https://github.com/langchain-ai/langchain
- LangChain-JavaScript:https://github.com/langchain-ai/langchainjs
- LangChain 对比同类的 AI 应用框架,提供了独一无二的 LangSmith 平台,LangSmith的一个核心优势是为你的 LLM 应用提供一流的调试体验,详细记录了正在执行的每个步骤、每个步骤的输入、输出、所需时间等数据。并以用户友好的方式展示这些信息,让你能够识别哪些步骤耗时最长,进入一个调试区域来处理 LLM 意外反馈的问题,追踪 Token 使用情况等。最重要的转折点在 2024 年 1 月 8 日,LangChain 团队发布了第一个稳定版本 0.1.0 版本,并推出了LangGraph 与 LangSmith 。这个版本完全向后兼容,并且有 Python 和 JavaScript 两个版本,甚至基于 LangGraph 组件,可以便捷使用 LangChain 组件构建工作流任务,至此,Agent 从一开始的黑箱模式变得可观测,完成最后一块拼图,实现了在企业生产环境中可以稳定使用 LangChain 的可能。
3. LangChain 简介与基本概念
LangChain 主要提供了 6 大核心组件帮助我们更好的使用大语言模型,涵盖了 Models(模型)、Prompts(提示)、Indexes(索引)、Memory(记忆)、Chains(链)、Agents(代理),这些组件集成了数十种大语言模型、多样的知识库处理方法以及成熟的应用链、上百种可调用的工具箱,为用户提供了一个快速搭建和部署大语言模型智能应用程序的平台。