从LLM到Agent SkillAI核心技术全拆解与系统化学习路线一、核心概念与关键步骤全拆解对应图谱9大模块1. 底层引擎大语言模型LLM, Large Language Model2. 数据处理单元Token3. 临时记忆体Context上下文4. 指令交互Prompt提示词5. 外部能力扩展Tool工具6. 工具标准化MCPModel Context Protocol模型上下文协议7. 自主决策系统Agent智能体8. 任务定制Agent Skill智能体技能9. 概念体系层级关系核心递进链二、系统化学习路线分4阶段从入门到精通阶段1基础入门LLM Token Context Prompt—— 打牢底层认知阶段2进阶能力Tool MCP—— 扩展大模型外部能力阶段3高阶系统Agent Agent Skill—— 构建自主智能系统阶段4工程落地与生态整合—— 全链路实战三、学习资源与避坑指南推荐学习资源避坑指南四、Unity开发者定制化学习路线结合工作场景从LLM到Agent SkillAI核心技术全拆解与系统化学习路线完整拆解从底层大模型到任务定制的全链路关键步骤并给出分阶段可落地的学习路线同时适配作为开发者的场景做定制化优化。一、核心概念与关键步骤全拆解对应图谱9大模块1. 底层引擎大语言模型LLM, Large Language Model核心定义基于Transformer架构的生成式AI本质是「文字接龙」——通过预测下一个概率最高的词生成连续文本。技术底座2017年Google论文《Attention is All You Need》提出的Transformer架构是所有大模型的技术根基。发展里程碑时间事件意义2017年Transformer架构提出奠定大模型技术基础2022年底GPT-3.5发布首个达到可用级别的大模型2023年3月GPT-4发布大幅提升AI能力天花板2023年后Claude、Gemini等模型涌现AI赛道从OpenAI独角戏变为多强竞争学习核心Transformer自注意力机制、大模型训练/微调/推理原理、主流模型GPT、Claude、Gemini、开源Llama/Qwen特性差异。2. 数据处理单元Token核心定义大模型处理文本的最小单位由Tokenizer分词器将文本切分为片段再映射为Token ID数字解码时还原为文本。关键特性与自然语言单位非一一对应语言单位与Token的关系示例中文词语可能被拆分“工作坊”→“工作”“坊”英文常见词通常对应1个Token“hello”→1个Token复杂英文单词可能被拆分“helpful”→“help”“ful”特殊字符可能需多个Token✅→3个Token量化参考1个Token ≈ 0.75个英文单词 / 1.5-2个汉字40万Token ≈ 60-80万汉字 或 30万英文单词学习核心BPE字节对编码分词原理、不同模型Tokenizer差异、Token计数对API成本/上下文窗口的影响。3. 临时记忆体Context上下文核心定义大模型每次处理任务的信息总和临时记忆包含用户问题、对话历史、当前输出Token、工具列表、System Prompt等。核心限制Context Window上下文窗口即模型最大可处理的Token数量决定了模型能“记住”的对话/文档规模。主流模型上下文窗口对比模型Context WindowToken约合汉字数量GPT-5.4105万约157.5万Gemini 3.1 Pro100万约150万Claude Opus 4.6100万约150万突破限制方案RAG检索增强生成——从知识库抽取与问题最相关的片段仅将关键信息送入模型大幅降低Token消耗。学习核心上下文窗口优化、RAG技术原理与工程落地、长上下文处理实践。4. 指令交互Prompt提示词核心定义给大模型的问题/指令直接决定输出质量分为两类User Prompt用户输入的具体任务如“帮我写一首诗”System Prompt开发者后台配置的人设与做事规则如“你是耐心的数学老师引导学生思考而非直接给答案”Prompt Engineering提示词工程核心原则清晰、具体、明确现状重要性下降门槛低大模型能力提升可自主理解模糊意图学习核心System Prompt设计、高效Prompt编写、思维链CoT/Few-Shot等进阶提示技巧。5. 外部能力扩展Tool工具核心定义大模型调用的外部函数弥补大模型实时信息缺失、计算能力弱的短板让模型感知/影响外部环境。完整工作流程用户提问 → 平台转发含工具列表大模型分析 → 生成工具调用指令平台执行调用 → 获取结果大模型整理结果 → 自然语言输出角色分工角色职责大模型选择工具、生成参数、归纳结果工具执行具体功能如查天气、算数学、查数据库平台转发信息、执行工具调用学习核心Function Call原理与格式、自定义工具开发、工具调用错误处理与优化。6. 工具标准化MCPModel Context Protocol模型上下文协议核心定义统一的工具接入标准解决不同AI平台工具接入规范不统一的问题类比Type-C充电口统一标准。核心价值工具开发者只需按MCP规范开发一次即可在所有支持MCP的平台使用大幅降低适配成本。学习核心MCP协议规范、跨平台工具开发与适配、MCP生态落地。7. 自主决策系统Agent智能体核心定义能够自主规划、自主调用工具、持续工作直至完成用户任务的系统是大模型从“问答工具”到“自主助手”的核心升级。核心能力多步骤推理、工具选择、流程控制代表产品Claude Code、Codex、Gemini CLI等典型构建模式ReAct、Plan and Execute等学习核心Agent架构原理、主流Agent框架LangChain、AutoGPT等、Agent规划与反思机制、多Agent协作。8. 任务定制Agent Skill智能体技能核心定义给Agent的说明文档包含任务规则、执行步骤、输出格式等实现Agent的任务定制化。标准结构元数据层名称name、描述description指令层目标、执行步骤、判断规则、输出格式、示例技术实现规范存储形式Markdown文档文件名必须为SKILL.md存储位置特定目录如Claude Code的claude/skills文件夹加载机制仅在用户问题与技能名称/描述相关时加载节省Token学习核心Skill文档编写规范、自定义Skill开发、渐进式披露机制Token优化。9. 概念体系层级关系核心递进链LM核心引擎 → Token数据单位 → Context记忆空间 → Prompt交互接口 → Tool外部能力 → MCP工具标准 → Agent决策系统 → Agent Skill任务定制补充细节Transformer由Google提出OpenAI通过GPT系列引爆应用Token切分基于BPE字节对编码算法Agent Skill支持运行代码、引用资源采用渐进式披露节省TokenRAG技术专门解决Context Window限制问题二、系统化学习路线分4阶段从入门到精通阶段1基础入门LLM Token Context Prompt—— 打牢底层认知目标理解大模型核心原理掌握基础交互与优化学习内容LLM基础精读《Attention is All You Need》掌握Transformer自注意力、编码器-解码器结构了解主流大模型GPT-3.5/4、Claude、Gemini、开源Llama/Qwen的特性与适用场景Token与Context学习BPE分词原理用tiktoken库实践Token计数理解Token与汉字/单词的换算学习上下文窗口限制入门RAG技术原理Prompt工程掌握System Prompt设计、高效User Prompt编写学习Few-Shot、Chain-of-Thought思维链等技巧实践任务用tiktoken统计代码、技术文档的Token数理解长代码的Token消耗编写一个高质量System Prompt如“专业的技术顾问输出带注释的可运行代码”测试输出效果用LangChain入门案例实现简单RAG处理长文档解决上下文不足问题阶段2进阶能力Tool MCP—— 扩展大模型外部能力目标掌握工具调用与标准化让大模型“能做事”学习内容Tool工具调用学习OpenAI/Anthropic/Google的Function Call规范与格式用Python开发自定义工具如项目打包工具、Shader性能分析工具学习工具调用的参数校验、错误处理、结果优化MCP协议学习MCPModel Context Protocol的规范与设计思想按MCP标准重构工具实现跨平台兼容实践任务开发一个项目代码审查工具集成到GPT/Claude用MCP规范重构工具适配Claude Code等多平台搭建完整工具调用流程用户提问→工具调用→结果返回→自然语言输出阶段3高阶系统Agent Agent Skill—— 构建自主智能系统目标掌握Agent架构实现任务定制化自主执行学习内容Agent智能体学习Agent核心架构ReAct、Plan-and-Execute等模式掌握主流Agent框架LangChain、AutoGPT、Claude Code、Gemini CLI学习Agent的规划、反思、工具选择、多步骤推理机制Agent Skill学习SKILL.md编写规范掌握元数据指令层的结构设计学习渐进式披露机制优化Token消耗实践任务用LangChain搭建一个技术博客自动生成Agent为Claude Code开发专属Skill如SRP Batcher配置Skill、光照烘焙优化Skill存为SKILL.md测试Agent的自主执行能力优化规划与反思逻辑阶段4工程落地与生态整合—— 全链路实战目标从0到1落地完整AI系统适配业务场景学习内容全链路整合整合LLM、RAG、Tool、MCP、Agent、Skill搭建完整AI工作流学习大模型应用的工程化部署、监控、成本优化、Token优化业务适配针对游戏开发场景定制Agent与Skill如内存泄漏排查、Shader优化、AssetBundle打包学习大模型应用的安全、合规、隐私保护前沿跟进跟进Agent、MCP、长上下文、RAG等领域的最新技术实践任务搭建面向游戏开发的AI助手系统集成LLMGPT-4/Claude、RAG游戏官方文档知识库、Tool游戏项目分析工具、MCP标准化、Agent自动代码审查/优化、Skill游戏光照优化、SRP Batcher配置等优化系统的Token消耗、响应速度、输出质量落地到实际开发流程三、学习资源与避坑指南推荐学习资源基础理论论文《Attention is All You Need》Transformer基石、《ReAct: Synergizing Reasoning and Acting in Language Models》Agent经典课程DeepLearning.AI《Large Language Models Specialization》吴恩达团队LLM入门、LangChain官方文档Agent/Tool/RAG学习工具实践tiktokenOpenAI官方Token计数库LangChainAgent/Tool/RAG框架Claude CodeAgent Skill实践MCP官方文档工具标准化开源项目Llama 3开源大模型、Qwen通义千问开源模型AutoGPT经典Agent项目、LangGraphLangChain的Agent编排工具避坑指南不要跳过基础直接学Agent而不懂LLM/Token/Context会无法理解Agent的限制与优化点Prompt工程不要过度神话大模型能力提升后清晰的指令比复杂的提示技巧更重要工具调用要重视错误处理大模型生成的工具参数可能错误必须做参数校验与容错Agent不是越复杂越好简单的ReAct模式足够多数场景过度复杂的规划会降低效率Token优化是核心长上下文、Skill的渐进式披露、RAG都是为了节省Token降低成本提升速度四、Unity开发者定制化学习路线结合工作场景针对作为Unity程序员的背景将学习路线与工作深度结合最大化提升开发效率基础阶段用LLM做Unity代码助手优化Prompt如“帮我写URP Lit Shader带SRP Batcher兼容代码”理解长代码的Token消耗进阶阶段开发Unity专属Tool如“Unity项目打包工具”、“Shader性能分析工具”、“内存泄漏排查工具”用MCP标准化适配多平台高阶阶段开发Unity专属Agent如“自动优化Unity项目内存的Agent”、“Shader代码审查Agent”编写Unity相关Skill如SRP Batcher配置Skill、光照烘焙优化Skill、YooAsset打包配置Skill落地阶段搭建Unity开发AI助手集成到你的开发流程实现代码生成、审查、优化、打包的全流程自动化