AI 的下一波浪潮:不仅仅是模型

2 天前 观点 45

作者: Augusto Marietti(Kong CEO & 联合创始人)、YJ Lu(Teachers’ Venture Growth 总监)、Yiran Wu(Teachers’ Venture Growth 投资分析师)


背景:上下文是新的算力

过去几年,AI 以史无前例的速度发展。从传统机器学习系统跃迁到能写作、编程、推理的生成式 AI 模型,这一变化彻底改变了我们与 AI 的互动方式。但旅程并未结束。

我们正进入一个新的阶段:具备上下文理解与自主行动能力的 Agentic AI(代理式 AI)。它们能自主设定目标、执行任务,并且几乎不需要人工干预。

支撑这一转变的核心是 Model Context Protocol(MCP)模型上下文协议 —— 一个新兴标准,用于将基于提示的生成式 AI 模型连接到真实世界的数据、工具与操作。


上一阶段的问题:缺失的上下文(404)

直到最近,大多数前沿大模型都运行在“围墙花园”中:
它们能理解用户提示并生成文本,但无法标准化地访问个人或企业数据、内部工具、API 或其他关键上下文来源。

企业若想让模型具备上下文能力,只能构建昂贵、脆弱且难以维护的定制集成(“胶水代码”)。

2024 年 11 月,Anthropic 推出开源框架 MCP,旨在通过通用协议将上下文引入 LLM,使其能发现、调用并认证外部系统的 API。
MCP 很快成为行业标准,被 OpenAI、Google 等巨头采用。

随着生态成熟,AI 系统将能在不同工具之间保持上下文,实现可持续的架构。


MCP 如何工作?

在 MCP 之前,每个 LLM 都有自己的插件格式,需要为每个工具写独立的集成代码,形成 N × M 的复杂矩阵。

MCP 将这一矩阵折叠为一个供应商中立的系统,通过定义清晰的角色(host、client、server),让工具能以一致方式被发现与调用。

只需为每个上下文源构建一个 MCP server,任何兼容 MCP 的 AI 助手都能像使用工具箱一样使用它。

流程如下:

  • 用户输入提示
  • 模型解析意图
  • 模型不再“猜测”,而是向 真实上下文 请求信息
  • MCP client 将意图转为标准化请求
  • MCP server 执行 API 调用并返回结构化结果
  • 模型基于真实数据生成上下文感知的输出

最重要的是:不再需要 N × M 的胶水代码。


承API之踵,拓更阔之路

科技行业并非第一次需要通用标准来实现规模化。

API 曾是软件互联的关键:
它定义了软件之间如何交流、返回什么、如何安全交换信息。

API 真正爆发是在 REST、JSON、OAuth 等标准化之后,开发者终于能以可移植、可预测的方式构建软件。

这催生了 Stripe、Twilio、Plaid 等“API 即业务”的公司。

MCP 正在走类似的道路:
标准化模型访问工具与数据的方式。

随着 MCP 采用率提升,我们将看到 API 生态曾经出现的配套设施:
注册表、可观测性、审批系统、策略引擎、更好的工具链等。


我们的判断:上下文 + API + 工作流 = Agentic AI

我们押注两个方向:

  1. Anthropic 的 MCP
    正成为连接 LLM 与工具/数据的行业标准,为代理式工作流与多代理系统(A2A)奠定基础。

  2. Kong
    将其在 API 管理领域的领先地位扩展到 AI 连接层,成为企业系统与新一代 AI 代理之间的“连接组织”。


Anthropic

Anthropic 推出 MCP,是因为 AI 的未来不仅在于更大的模型,还在于将模型连接到正确的上下文。

2025 年 5 月,Anthropic 发布 Integrations,将 MCP 支持扩展到 Claude API,使 Claude 能无代码连接任何远程 MCP server。

未来路线图从单一代理转向多代理协作(A2A):

  • 一个代理获取客户数据
  • 一个代理做投资组合分析
  • 一个代理生成合规报告
  • 全部通过 MCP 与 A2A 无缝协调

AI 将从单一助手变成专业代理网络。


Kong

Kong 正将其 API 管理平台扩展到 AI 连接层,推出:

  • AI Gateway:将 LLM/MCP/API 调用视为 API 流量进行路由、安全、监控与优化
  • MCP Server for Konnect:将企业系统(API、服务、分析等)通过 MCP 暴露给 AI 代理,使其能用自然语言查询并获取洞察

Kong 的愿景是:
“没有 API,就没有 AI。”


MCP 的下一章:Linux 基金会托管

2025 年 12 月,Anthropic 将 MCP 捐赠给 Linux 基金会旗下的新机构 Agentic AI Foundation(AAIF)。

AAIF 由 Anthropic、Block、OpenAI 共同创立,并获得 Google、Microsoft、AWS、Cloudflare、Bloomberg 支持。

MCP 的开源治理模式类似 Linux、Kubernetes、Node.js、PyTorch 等项目,预计将加速其采用。

目前 MCP 已实现:

  • 每月 9700 万+ SDK 下载
  • 1 万+ 活跃服务器
  • 深度集成到 Claude、ChatGPT、Gemini 等产品

MCP 正从开发者框架走向下一代 AI 工作流的关键基础设施。


未来的机会

MCP 通过提供一个中立、通用的语言,让模型能访问工具、数据与系统,从而降低摩擦、提升互操作性。

随着采用率提升,我们将看到类似 API 生态的爆发:

  • 新商业模式
  • 新工具链
  • 新应用类别

但机会伴随风险:

  • 工具滥用
  • 数据暴露
  • 安全治理需求

生态必须在开放与安全之间取得平衡。

标准本身不会改变世界,生态系统才会。
如果成功,MCP 将成为未来几十年 AI 智能如何被封装、共享与扩展的基础设施。


(文章来源otpp.com )

相关资讯