Amadeus的知识库 | 告别碎片化集成:深度解析 AI 时代的“USB 协议” —— MCP
一、引文在 LLM大语言模型飞速发展的今天我们正从“对话框 AI”转向“智能体Agent”。然而开发者在集成 AI 时一直面临一个巨大的痛点数据孤岛。为了解决这个问题Anthropic 发布了MCP (Model Context Protocol)。它被誉为 AI 时代的“USB 协议”。今天我们就来彻底拆解 MCP 的含义、诞生原因、与 Function Calling 的关系以及它的核心架构。二、什么是 MCPMCP (Model Context Protocol)即模型上下文协议。简单来说它是一套开放的标准允许开发者通过统一的方式将本地或远程的数据源、工具和服务安全地连接到 AI 模型如 Claude、GPT 等。官方定义一种将 AI 应用程序与外部数据源和工具连接的通用标准。形象比喻在 USB 出现之前打印机、鼠标、键盘都有各自奇怪的接口串口、并口等。USB 出现后一个标准接口搞定所有外设。MCP 就是 AI 与外部数据世界之间的“USB 接口”。三、MCP 诞生的原因在 MCP 出现之前如果你想让 AI 访问你的 Notion 笔记、读取 GitHub 代码或查询 SQL 数据库你需要针对每个 API 编写特定的“胶水代码”。在不同的 AI 平台如 Claude Desktop, IDE, 自建 App中重复实现这些集成。手动管理复杂的上下文注入和权限。这种现状导致了两个主要问题碎片化严重每个工具都要为每个 AI 重写一遍插件。上下文隔离数据分散在不同地方AI 很难获取完整、实时的背景信息。MCP 的使命实现“一次编写到处运行”。只要你写了一个 MCP Server比如 GitHub 插件任何支持 MCP 的 Client比如 Claude 或 Cursor都能立即使用它无需重复开发。四、MCP vs. Function Calling很多人会问“这不就是 Function Calling函数调用吗”其实两者层级不同维度Function Calling (函数调用)MCP (模型上下文协议)本质模型输出一种格式化的 JSON提示开发者去执行某个函数。一套完整的通信协议定义了客户端与服务器如何交换数据。范围局限于“模型告诉我怎么做”逻辑由开发者手动实现。涵盖了资源发现、工具调用、提示词模版等整套生态。复用性差。你为 App A 写的函数App B 无法直接复用。强。符合 MCP 标准的服务可以被任何支持 MCP 的软件直接连接。动态性静态。函数定义通常写死在 Prompt 或代码里。动态。Client 可以实时查询 Server 具备哪些能力。联系MCP 在底层利用了Function Calling 的能力。当模型通过 MCP 决定使用某个工具时它依然是发起一个调用请求但 MCP 规范了这种请求的传输方式、安全认证和数据格式。五、MCP 的核心架构1.Host这是用户直接使用的 AI 环境。例子Claude Desktop 客户端、IDE (如 Cursor, VS Code)、自建的 AI 聊天网页。职责它包含了 MCP Client决定何时调用哪些 Server并负责与模型进行最终的交互。2.Client存在于 Host 内部的协议实现层。职责它维护与各个 Server 的连接。它会向 Server 发送请求比如“告诉我你有什么工具”并将 Server 返回的结果翻译给 AI 模型。3. Server这是连接具体数据源的“适配器”。例子一个连接 Google Drive 的 MCP Server或者一个能执行 Python 代码的 MCP Server。职责Resources (资源)提供只读数据如读取文件、数据库记录。Tools (工具)提供执行动作的能力如创建 GitHub Issue、发送邮件。Prompts (提示模板)提供预设的指令模板。工作流程图你的问题 → Claude Desktop(Host) → Claude 模型 → 需要文件信息 → MCP Client 连接 → 文件系统 MCP Server → 执行操作 → 返回结果 → Claude 生成回答 → 显示在 Claude Desktop 上。这种架构设计使得 Claude 可以在不同场景下灵活调用各种工具和数据源而开发者只需专注于开发对应的 MCP Server无需关心 Host 和 Client 的实现细节。六、Server 与 Client 传输层通信机制在 MCP模型上下文协议的设计中为了适应不同的应用场景比如本地运行还是远程调用官方定义了两种核心的传输层机制Transport Mechanisms。虽然它们在底层都使用JSON-RPC 2.0进行消息交换但“传球”的方式截然不同1.stdio这是目前 MCP 最常用、最简单的一种方式主要用于本地连接。工作原理Host (宿主程序)如 Claude Desktop 或 Cursor直接启动Server作为一个子进程Child Process。Client 和 Server 通过操作系统的stdin标准输入和stdout标准输出进行通信。Client 向 Server 的stdin写入 JSON 指令Server 处理完后通过stdout把结果甩回来。特点极速且私密数据不经过网络全部在内存和本地管道中流动安全性最高。生命周期同步当 Host 关闭时Server 子进程也会随之被杀掉不会残留后台进程。配置简单只需要在配置文件里写明command如node或python和文件路径即可。适用场景你电脑本地的工具比如读取你本地代码库、操作本地文件、查询本地数据库。2.SSE这种方式主要用于远程连接或跨网络通信。工作原理Server作为一个独立的 Web 服务器运行通常基于 HTTP 协议。Client通过 HTTP 发起连接。双向通信实现从 Server 到 Client使用SSE (Server-Sent Events)。这是一种长连接技术允许服务器主动向客户端推送消息。从 Client 到 Server使用普通的HTTP POST请求来发送指令。特点跨设备能力Server 可以部署在云端如 AWS, VercelClient 可以在任何地方连接。标准 Web 技术利用了现成的 HTTP 基础设施容易穿透防火墙。复杂性略高需要处理网络延迟、身份验证Auth和跨域CORS问题。适用场景集成云端 SaaS 服务如实时天气、远程 CRM 系统或者由第三方机构维护的公共 AI 工具。3.两种机制对比总结特性stdio (标准输入输出)SSE (服务器发送事件)连接类型本地进程间通信 (IPC)远程网络通信 (HTTP)部署位置同一台机器可以在不同服务器/网络性能极高延迟几乎为零受限于网络带宽和延迟安全性默认最高本地隔离需要配置 API Key, HTTPS 等安全措施典型案例访问本地文件的插件访问 Google 搜索的云端接口实现难度极简中等七、MCP 三大核心能力在 MCP模型上下文协议中Resources资源、Tools工具和Prompts提示模板是 Server 向 Client 提供的三种核心能力。如果把 AI 想象成一个“办公室职员”这三者的关系可以这样理解Resources是他桌子上的参考资料只读。Tools是他手里的办公器具可操作、有结果。Prompts是你给他的工作模版教他怎么做。1.ResourcesResources是 Server 暴露给 AI 的只读数据。它们是静态的或实时的信息模型可以读取它们作为回答问题的上下文。特点通常是只读的。可以是本地文件、数据库内容、甚至是实时日志。标识方式每个资源都有一个唯一的URI类似于网址例如file:///logs/app.log或postgres://database/table/schema。使用场景读取一个本地的README.md文件。获取数据库的表结构描述。查看服务器的最新运行日志。模型视角模型知道这些资源的存在当它需要背景知识时会通过 Client 请求读取这些内容。2.ToolsTools是 Server 提供的可执行代码/功能。它们允许 AI “采取行动”并对外部世界产生影响。特点动态执行。工具可以接受参数Arguments执行后返回结果。它具有“副作用”Side Effects比如修改文件、发送邮件。交互逻辑模型决定“我要用这个工具参数是 X”Server 执行并将结果返回给模型。使用场景计算类运行一段 Python 代码计算数学题。API类在 GitHub 上创建一个 Issue。系统类在本地创建一个新的文件夹。模型视角这是模型发现自己“能做的事”。比如模型发现自己不能直接联网但看到有一个google_search的 Tool它就会调用这个工具。3.PromptsPrompts是 Server 预先定义好的交互模版。它告诉 AI 应该以什么样的角色、逻辑和步骤来处理任务。特点包含占位符的可重用提示语。它不仅是简单的文字还可以引导模型去关联特定的 Resource 或 Tool。使用场景代码审查模板一个名为review-code的 Prompt预设了检查逻辑并要求用户传入“代码文件”作为参数。翻译助手预设好“你是一个专业翻译官请将以下文本翻译为 [语言]”的模版。模型视角这更像是用户或开发者给出的“指令捷径”。用户只需选择一个 Prompt 模板剩下的上下文由 MCP 自动填充八、总结本文围绕模型上下文协议MCP展开介绍先阐释其定义再说明其诞生是为解决传统交互模式的局限。对比Function Calling仅输出格式化JSON、依赖开发者实现逻辑、复用性与动态性不足的问题MCP作为完整通信协议具备完善生态、强复用性与动态发现能力。其核心架构包含Host、Client、Server三大角色支撑起Resources、Tools、Prompts三大核心能力实现资源、工具与提示词模板的标准化交互。以及对比 MCP 中 Server 与 Client 传输层两种通信机制阐释了不同场合下的传输层应用。MCP突破了函数调用的静态与碎片化缺陷构建起标准化、可复用、动态互通的AI交互体系为不同软件与模型服务的高效对接提供了统一规范大幅提升AI工具与能力集成的灵活性和通用性。