凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议
7964点击    2025-03-27 10:34

自从昨天OpenAI将GPT-4o的原生图像生成同步开放给免费用户后,今天他们又Open了一把。


就在刚刚,OpenAI对其Agents SDK进行了重大更新,支持了对手Anthropic推出的MCP服务协议。


凌晨2点,奥特曼便迫不及待地公布了这个消息。


凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议


「大家都挺喜欢MCP的,我们也很兴奋能在我们的产品中支持它,」Altman说。


「今天就可以在Agents SDK里使用,ChatGPT桌面应用和Responses API也很快支持!」


OpenAI负责API的研究员Steven Heidel还在X上贴出了一张现在最火的吉卜力风格图片,来解释MCP的用处。


图片展示了一个基于MCP协议的分布式系统架构。


左边有一个主机运行MCP客户端(例如ChatGPT等应用),通过MCP协议与三个不同的MCP服务器(A、B、C)通信。


MCP服务器A和B分别连接到本地数据源,处理本地数据,而MCP服务C通过Web API与互联网上的远程服务C交互,获取外部数据。


表明了MCP客户端可以根据需求从不同的服务器获取数据或服务。


凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议



MCP持续火爆


MCP允许AI模型从业务工具、软件、数据库以及应用开发环境等来源中获取数据完成任务。


可以使开发者能够在数据源和AI应用(如聊天机器人)之间建立双向连接。


自从去年11月Anthropic把MCP服务协议开源后,几个月来,很多像Block、Apollo、Replit这样的公司都在自己的平台上支持了此协议。


到了今年2月,MCP生态进一步爆炸增长,已有超过1000个由社区构建的MCP服务器可供使用。


而且这种网络效应会使MCP越来越有吸引力:通过MCP可用的工具越多,该标准的实用性就越大。


凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议


「很高兴看到MCP的热爱传递到了OpenAI——欢迎!」Anthropic的首席产品官Mike Krieger在X上发帖说。


「MCP已经成了一个蓬勃发展的开放标准,已经有几千个集成应用,而且还在增加。只有当LLM能够连接你现有的数据和日常使用的软件时,它们才能发挥最大的作用。」


凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议


前段时间,霸榜开源第一的00后博士生0天复刻Manus项目OWL爆火。今天,CAMEL AI团队创始人李国豪表示:


看到OpenAI加入MCP生态是非常激动的,有想过会有这一天,但没有想到会这么快。


MCP推出已有一段时间,如今它逐步成为标准,主要是因为它提供了极大的便利性,同时又是一个开放中立的协议。


MCP的意义远远超过了一个简单的协议本身,而在于推动标准化的进程。实际上,这个协议由谁提出并不重要。


在标准缺失的情况下,各个团队都在独立开发自己的工具,如LangChain、LlamaIndex等,导致不同框架的Agent难以互通,不同框架的工具也难以兼容。


而有了MCP,这个问题就变得简单了。它的价值在于降低对特定框架的依赖,让开发者只需遵循统一标准,就能自由使用各种工具。


凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议


官方SDK文档


随着OpenAI在Agents SDK中加入对MCP的支持,开发者现在可以轻松地利用各种MCP服务器,为自己的AI智能体提供丰富的工具能力。


凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议


MCP服务器


目前,MCP规范根据传输机制的不同定义了两种服务器类型:


  1. stdio服务器:作为应用程序的子进程运行,可以理解为「本地」运行的服务器
  2. HTTP over SSE服务器:远程运行的服务器,可以通过URL与之连接


开发者可以使用MCPServerStdio和MCPServerSse这两个类来连接这些服务器。


下面是一个使用官方MCP文件系统服务器的示例。


async with MCPServerStdio(
params={
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", samples_dir],
}
) as server:
tools = await server.list_tools()


如何使用


开发者可以将MCP服务器集成到AI智能体中。


当AI智能体每次执行时,Agents SDK会自动在MCP服务器上调用list_tools()函数。这一过程使LLM能够识别并获取MCP服务器提供的各种工具。


当LLM需要调用来自MCP服务器的某个工具时,SDK会相应地在该服务器上执行call_tool()函数。


agent=Agent(
name="Assistant",
instructions="Use the tools to achieve the task",
mcp_servers=[mcp_server_1, mcp_server_2]


缓存机制


每次AI智能体运行时,系统都会调用MCP服务器的list_tools()方法。这一过程可能会产生明显的性能开销,尤其是在使用远程服务器的情况下。


为了优化性能,开发者可以通过在MCPServerStdio和MCPServerSse构造函数中设置参数cache_tools_list=True来启用工具列表自动缓存功能。请注意:只有确信工具列表不会发生变化时,才应启用此功能。


如需手动清除缓存,可以调用服务器对象的invalidate_tools_cache()方法。


链路追踪


系统内置的链路追踪功能能够自动捕获所有MCP相关操作,主要包括:


  1. 向MCP服务器发起的工具列表获取请求
  2. 函数调用过程中的所有MCP相关信息


凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议


MCP一夜成为行业标准


MCP这一概念,还是Anthropic在去年11月首次提出,全称为「模型上下文协议」,能够实现一次构建,让AI深度集成。


MCP是一个开放协议,它标准化了应用程序向LLM提供上下文的方式。你可以把MCP比作AI应用的USB-C接口——就像USB-C为设备连接各种外设和配件提供了标准化接口一样,MCP为AI模型连接不同的数据源和工具提供了标准化方法。


凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议


它的本质,是为了提供一个「通用接口」,好比AI世界「万能插头」。


凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议


也就是所说,不同AI模型/应用能够轻松连接到外部资源。这种标准化可以降低开发者的集成成本,同时提升了AI上下文感知力。


Agents SDK是前段时间,OpenAI为开发者准备的「工具箱」,用来打造自己干活的AI智能体,比如写邮件、整理数据。


现在这两者一拍即合,意味着什么?


凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议


OpenAI员工用ChatGPT绘制吉卜力风格跟踪仪表板


开发者可用Agents SDK,直接通过MCP调取各种外部数据、工具,让AI能够变得更聪明、更实用。


而这仅仅是个开始,奥特曼透露的未来两个令人期待的计划,将进一步加速AI工作流。


如果ChatGPT客户端也能用上MCP,就会化身为超级私人助理,去年11月每个人从Claude演示中能够获得关键一瞥。


对于开发者来说,MCP加入OpenAI API,未来可以用更少代码,干更多的事儿。


下一代AI工作流,说不定就从这儿起飞了。


参考资料:

https://techcrunch.com/2025/03/26/openai-adopts-rival-anthropics-standard-for-connecting-ai-models-to-data/

https://x.com/sama/status/1904957253456941061

https://huggingface.co/blog/Kseniase/mcp



文章来自微信公众号 “ 新智元 ”


凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议


关键词: OpenAI , 奥特曼 , MCP协议 , MCP
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
OWL

【开源免费】OWL是一个完全开源免费的通用智能体项目。它可以远程开Ubuntu容器、自动挂载数据、做规划、执行任务,堪称「云端超级打工人」而且做到了开源界GAIA性能天花板,达到了57.7%,超越Huggingface 提出的Open Deep Research 55.15%的表现。

项目地址:GitHub:https://github.com/camel-ai/owl

2
AI代理

【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。

项目地址:https://github.com/browser-use/browser-use


3
AI工作流

【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。

项目地址:https://github.com/n8n-io/n8n

在线使用:https://n8n.io/(付费)


【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。

项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file



【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。

项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file

在线使用:https://vectorvein.ai/(付费)

4
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

5
免费使用GPT-4o

【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。

在线使用:https://ffa.chat/