arrow_back返回文章列表
技术0 阅读

写给前端工程师的 MCP 入门指南

很多前端工程师第一次接触 MCP,都会有点懵:名字像协议,内容像 Agent,讨论里又总会出现 Tool、Prompt、Resource、Skill。其实没必要一开始把所有术语都啃下来,只要先抓住一句话:MCP 是让 AI 能接工具、拿数据、真的做事的一套标准方式。

如果把以前的大模型比作一个只会说话的同事,那接入 MCP 之后,它就可以获得查系统、调接口、读文件的能力了。它不再只是回答问题,而且还可以在授权范围内去帮你完成一些操作,这也是 MCP 被越来越多 AI 开发工具采用的重要原因之一。

什么是 MCP

MCP 全称 Model Context Protocol,是一个开放协议,用来连接 LLM 应用与外部数据源、工具和系统能力。

如果用前端熟悉的方式理解,HTTP 解决的是浏览器如何和服务器通信,而 MCP 解决的是 AI 应用如何和工具、资源、上下文通信。

官方架构文档把通信角色分成 Host、Client 和 Server:Host 是发起连接的 LLM 应用,Client 是宿主Host里的连接器,Server 是工具和上下文能力的提供者。

这个设计和前端熟悉的“宿主应用 + SDK + 服务端”非常接近。你可以把它理解成:Host 负责界面和模型,Client 负责按协议通信,Server 负责真正提供能力。

先看一个最直观的例子

假设你做了一个后台系统,右下角放了一个 AI 助手。用户问它:“今天新增了多少订单?”

如果没有 MCP,这个助手通常只能停留在聊天层:要么根据训练数据猜一个结果,要么你自己再额外写一套工具调用格式,把数据库查询接口和权限逻辑硬接进去。

如果用了 MCP,流程就清晰很多。AI 助手先去问某个 MCP Server:“你这边有什么工具?” 服务端返回一组工具列表,比如 get_today_ordersget_order_detailexport_report,每个工具都带着用途说明和参数 schema。

接着模型看到用户的问题后,选择调用 get_today_orders。服务端查完数据库,把结果返回给 AI,再由 AI 用自然语言回复“今天新增 128 单”。这就是 MCP 最典型的使用方式:先发现工具,再调用工具,再把结果组织成用户能理解的话。

Host、Client、Server 到底分别是谁

这三个词经常一起出现,但一点都不难。可以拿“外卖平台”来类比:Host 像外卖 App,Client 像 App 里的调度系统,Server 像真正出餐的商家。

放到 MCP 里:

举个开发场景。假设你在 VS Code 里用 AI 编程助手,让它“帮我看看当前项目里哪个接口超时最多”。此时 VS Code 里的 AI 助手是 Host,助手内部负责协议通信的是 Client,能访问日志、代码仓库、监控平台的那些能力提供方,就是 MCP Server。

Tool 是你最先该理解的东西

MCP 里最重要的东西不是 Prompt,也不是 Resource,而是 Tool。因为绝大多数“AI 真正开始做事”的体验,都是从 Tool 开始的。

你可以把 Tool 理解成一个“给 AI 用的接口”。它通常会包含三样东西:工具名、用途说明,以及一份参数 schema,也就是参数的结构定义。

比如一个天气工具,可能长这样:

当客户端调用它时,会通过 tools/call 这类请求,把工具名和参数一起发过去。官方工具规范和示例都采用了这种模式。

再举一个更贴近前端的例子。你做了一个内容后台,可以给 AI 助手接三个工具:

这样用户说“把标题里带 MCP 的草稿找出来并发布最新一篇”,AI 就有机会先查列表,再取详情,再调用发布接口。你会发现,这其实就是把一组后台 API 暴露给模型去组合调用。

为什么 schema 很重要

很多人第一次看 MCP,会觉得“工具名 + 描述”就够了,为什么还非得写 schema。原因很简单:模型不是靠猜来调工具的,它需要一个清晰的参数契约。

比如你写了一个 create_user 工具,如果没有 schema,模型可能不知道 email 是不是必填,也不知道 age 到底应该传数字还是字符串。加上 schema 之后,模型和客户端都能明确知道怎么构造参数;前端也可以基于这些结构,直接生成调试表单或类型定义,这和看 Swagger 文档联调接口的体验非常接近。

这也是为什么 MCP 对前端工程师很友好。它不是一种完全靠 prompt 猜测的接入方式,而是尽量把工具能力结构化、明确化、可验证化。

一次完整调用到底怎么发生

还是用一个简单场景说明:用户在 AI 助手里输入“帮我查一下今天有多少新注册用户”。

第一步,Host 先知道自己连接了哪些 MCP Server,比如一个 analytics server。这个 server 对外提供了 get_signup_count 工具。

第二步,Client 通过 tools/list 拿到工具定义,知道这个工具需要一个 date 参数,类型是字符串。

第三步,模型判断这个问题需要调用 get_signup_count,于是客户端发一个 tools/call 请求,参数可能是 { "date": "2026-05-03" }

第四步,Server 去查数据库或分析服务,返回结果,比如 356。然后 Host 再把这个结果组织成面向用户的话术:“今天新增注册用户 356 人。”

这个过程最关键的点在于:模型并不直接操作数据库,它始终是通过一个被明确定义好的工具来间接完成动作。这样权限、安全、审计和错误处理都更容易做。

Resource 和 Prompt,只需要先知道是干什么的

除了 Tool,MCP 里还经常提到 Resource 和 Prompt。它们确实有用,但入门阶段不用学很深。

Resource 更像“给模型看的材料”,不一定是可执行动作。比如最近 1 小时的错误日志、当前打开文件的内容、某个项目的 README,或者数据库表结构说明,这些都可以作为 Resource 提供给模型参考。

比如用户问“为什么这个接口总超时”,AI 可能不需要立刻调用很多工具,而是先读取一份日志 Resource 和一段代码 Resource,然后再分析问题。官方关于 prompts 和 resources 的示例就展示了这种把日志和代码文件一起提供给模型的用法。

Prompt 则更像可复用的任务模板。比如提供一个 git-commit prompt,输入代码改动,输出一条风格统一的提交信息;也可以有一个 explain-code prompt,专门用于解释某段代码。

如果只想记一个最简单的区别,可以这么理解:Tool 是“能做事的按钮”,Resource 是“给模型看的资料”,Prompt 是“常用工作模板”。

为什么前端会明显受益

前端受益最大的地方,不是“也能写协议”,而是交互方式会被改变。

以前页面上的 AI 助手通常只有一个输入框,能做的事情很有限。现在如果背后接了 MCP,前端就可以把很多东西显式展示出来,比如当前 AI 拥有哪些工具、这次准备调用什么工具、为什么要申请某个权限、调用结果是什么、哪一步失败了。

这会让 AI 产品更像一个“可观察、可控制的工作台”,而不只是一个黑盒聊天框。尤其在后台系统、IDE、内部工具这类场景里,用户通常更愿意看到 AI 到底做了什么,而不是只收到一句神秘的答案。

再举个贴近前端工作流的例子。你做一个日志分析页面,用户点中一条错误日志后,右侧 AI 助手自动拿到这些 context:当前服务名、错误时间范围、选中的日志片段、当前仓库分支名。

然后用户只说一句:“帮我分析一下原因。” 此时 AI 可以先读日志 Resource,再调用 search_recent_deploysget_error_rate 这类 Tool,最后返回一段更可靠的分析。这个体验的关键,不在于模型更聪明,而在于前端把界面状态转成了模型可用的上下文。

MCP 现在在什么位置上

25-26年以来圈子里讨论得最多的,是各种 Skill、Workflow、Agent 编排,MCP 的热度看起来确实不如刚出来那会儿高。 但从工程角度看,Skill 再火,它的背后,很多时候还是 MCP 在干活。

用一个具体例子就很清楚:

换成开发场景也是一样:

所以现在的格局更像是:对外宣传和产品卖点更多在讲 Skill 有多聪明、流程多自动化;但在底层、在代码里,MCP 依然是那层稳定的“接线板”,把模型和各种业务系统、安全网关、数据库、日志平台连在一起。

它的名字也许没有 Skill 那么热,但只要你在做的是“让 AI 真正操作系统、查真实数据”的产品,协议层这块就必须有人扛,而 MCP 正是在很多项目里扮演这个安静但关键的角色。

MCP 和 Skill 的区别

如果只用一句话区分:MCP 解决“工具怎么接”,Skill 解决“任务怎么做”。

还是拿“代码审查助手”举例。

如果现在关心的是:怎么让 AI 访问 Git diff、怎么查 CI 结果、怎么读 lint 报告,那你面对的是 MCP 问题,因为这些都属于“把能力接进来”。

但如果关心的是:代码审查先看什么、哪些风险要优先提示、输出结果按什么格式写、什么情况下要建议补测试,那这更像 Skill 问题,因为它是在定义“这件事该怎么做”。

现实里两者通常会配合出现。MCP 负责连 Git、CI、日志平台,Skill 负责固化“代码审查流程”;但作为入门理解,只要先把这条边界分清楚就够了。

它为什么值得学

MCP 值得学,不是因为它是一个新名词,而是因为它把 AI 产品开发里最容易混乱的一层做了标准化:工具发现、参数描述、上下文传递和执行调用。

当这层被标准化之后,前端工程师就不必每做一个新 AI 产品,都重新发明一套“模型如何接后端能力”的协议。

更重要的是,这种标准化会让前端的职责边界变得更有意思。页面不再只是输入输出的容器,而会逐步成为 AI 行为的控制台:展示工具、解释状态、呈现计划、申请授权、反馈结果。

这让前端工程师在 AI 产品里不只是“接个 SDK”,而是真正参与定义人机协作的交互方式。

结语

如果只用一句话概括,MCP 的价值就是:它让 AI 应用第一次拥有了一层相对统一、可复用、工程化的“外部能力接入层”。

对于前端工程师,理解它并不需要先成为 AI 专家,只需要把它看成一种新的协议层,一种让界面、模型和业务系统能够协同工作的标准连接方式。

SHARE

分享

分享这篇文章。