10.1 引言:LLM 的输入输出边界前几章我们已经深入了解了 LangChain 的 Runnable 协议、模型抽象、Agent 系统和 Middleware 机制。但无论架构多精妙,LLM 应用的质量最终取决于两个基本问题:你给模型什么输入(Prompt),以及你如何处理模型的输出(Output Parsing)。Prompt 决定了模型的行为边界,OutputParser 则将模型的自由文本转换为程序可处理的结构化数据。LangChain 为这两端提供了完整的工具链。本章将从源码层面解析:Prompt 模板体系:BasePromptTemplate抽象基类、PromptTemplate、ChatPromptTemplate、MessagesPlaceholder的实现机制Few-Shot 模板:FewShotPromptTemplate和FewShotChatMessagePromptTemplate的示例注入策略Example Selectors:基于相似度、长度、MMR 的动态示例选择OutputParser 体系:BaseOutputParser继承树、流式解析支持、各内置 Pars