要点速览

  • MCP 成为行业标准:Anthropic 于 2024 年 11 月推出的 Model Context Protocol(MCP),在一年内已成为 AI 行业标准协议。OpenAI 于 2025 年 3 月采用,Google DeepMind 随后跟进,2025 年底该协议被捐赠给 Linux 基金会。
  • 解决 N×M 集成难题:在 MCP 之前,N 个模型需要与 M 个工具分别集成,复杂度呈指数级增长。MCP 就像 AI 系统的”USB-C”——一个标准连接替代无数不同的接口。
  • AI 网关的核心价值:现代 AI 网关不仅提供多模型切换和负载均衡,还能原生集成 MCP,实现工具调用的统一管理和安全审计。
  • Token 节省 50%+:通过”Code Mode”等优化,AI 网关可以避免在每次请求中携带大量工具定义,显著降低 Token 消耗。
  • 安全性提升:MCP 网关采用”建议而非执行”的默认模式,所有工具调用需经过审批,提供完整的审计追踪。

深度解读

如果你正在构建 AI 系统,可能已经遇到过这样的问题:每接入一个新工具(数据库、文件系统、Slack、日历等),就需要编写一套新的集成代码。认证流程、错误处理、连接管理——每次都是相似的模板代码,但又略有不同。

MCP:AI 的”USB-C”标准

Model Context Protocol 正是为了解决这个问题而生。它提供了一个标准化的协议,让 AI 模型与外部工具之间的通信变得统一和可预测。

具体来说,MCP 的价值在于:

  • 一次编写,多处使用:为某个工具编写一个 MCP 服务器后,任何兼容 MCP 的 AI 客户端都可以调用它
  • 标准化的通信格式:所有工具调用都遵循相同的 JSON-RPC 协议,简化调试和监控
  • 生态系统快速扩展:随着主流 AI 厂商的支持,MCP 服务器的数量和质量都在快速增长

为什么需要 AI 网关?

直接将 AI 模型连接到多个 MCP 服务器会产生几个问题:

  1. 上下文膨胀:每次请求都需要在上下文中携带所有可用工具的定义。如果接入 100 个工具,每次对话都要消耗数百个 Token 只用于描述工具
  2. 安全风险:工具可以在没有任何验证或批准的情况下执行,缺乏审计追踪
  3. 协调开销:每次工具调用都需要与 AI 模型进行单独的往返通信

AI 网关(如 Bifrost)通过在中间层集成 MCP,解决了这些问题。它支持:

  • 进程内工具:零网络开销
  • 本地 MCP 服务器:通过 STDIO 通信
  • HTTP 连接:远程微服务
  • SSE 事件流:实时数据推送

Code Mode:Token 优化的关键

一个特别值得关注的功能是”Code Mode”。传统模式下,AI 需要在上下文中了解所有可用工具。但在 Code Mode 下,网关只暴露四个元工具:

  • listToolFiles() – 发现可用服务器
  • readToolFile(fileName) – 获取工具签名
  • getToolDocs(server, tool) – 获取详细文档
  • executeToolCode(code) – 执行 Starlark 代码

AI 编写类似 Python 的 Starlark 代码来编排工具,工具定义只在需要时加载。这在使用 3 个以上 MCP 服务器时可以节省 50% 以上的 Token。

安全性:建议而非执行

2025 年 4 月,研究人员发现了 MCP 的安全问题:提示注入、权限组合可能导致数据外泄、以及”外观相似”的恶意工具。

现代 AI 网关通过”建议而非执行”的默认模式应对这些风险:当 AI 提议调用某个工具时,不会自动执行。你的代码需要审查并批准每次执行,同时获得完整的审计追踪。

对开发者的启示

如果你正在构建 AI 系统,2026 年不采用 MCP 集成意味着你在解决昨天的问题。标准化已经到来,生态系统已经成熟。问题不是是否采用 MCP,而是多快采用。

来源:DEV Community,经中文重写与扩展解读。

By admin

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注