代理AI爆发的转捩点

一早,看到OpenAI执行长Sam Altman在x上宣布:「OpenAI开始支援Anthropic的代理AI沟通框架MCP,先从SDK开始,几个月后 ,ChatGPT桌面版也会支援。」我想到的第一个念头就是,代理型AI爆发的转捩点出现了。

MCP(Model Context Protocol)是最近几个月AI圈最火红的关键字,Anthropic打造出了许多开发人员爱用的Claude大语言模型。为了让模型可以跟各种AI代理沟通,在去年11月,开源释出了MCP框架,这是一个用于LLM模型沟通上下文资讯的协定,顾名思义就是提供一套标准的资料介接和交换方式,可以让模型和第三方应用沟通,完成各种AI代理任务。

Anthropic创造了一个框架,让不同软体工具商,云端服务商,将自家API的串接方式、可执行的功能描述,都打包到一只MCP伺服器程式中,安装到使用者电脑后,使用者就可以透过LLM来下指令操作这些MCP伺服器,完成各种AI代理工作,像是帮使用者到Gmail发信提醒某人。只要在电脑上装好Claude桌面软体,以及开源社群释出的Gmail存取MCP伺服器,就可以做到上述这件事,安装越多MCP伺服器,就像是装了越多的LLM可用工具一样,Claude模型能用AI代理来执行越多的任务。

去年吹起一股代理型AI浪潮,大型科技巨头纷纷推出代理型AI的工具,叫好却不叫座,只看到大量代理型AI的PoC验证,较少看到大规模导入的企业,困难之一就是,需要事先定义、客制出一道道代理型AI的工作流程,预先撰写程式,串接出LLM执行任务所需要的每一个步骤,相当麻烦又费工。

但是,MCP框架改变了每一个人,每一家企业需要自己事先制作代理型AI的模式,改由工具厂商制作一次自家App的串接方式,释出让LLM呼叫来使用。

在MCP框架中有三个关键的元件:具备模型能力的Host应用、下指令用的MCP用户端、不同软体或工具的MCP伺服器端。用AI代理呼叫Slack来比喻,Slack公司得自己开发一只MCP伺服器,可以跟自家API介接。使用者则要在个人电脑中安装一套Host应用,也要先安装Slack公司的MCP伺服器号,个人电脑就能用AI代理来呼叫Slack。使用者只需对具备MCP用户端功能的Chatbot,下指令要LLM呼叫Slack来完成任务,像是帮我整理不同Slack群组今天的讨论内容。MCP用户端可以呼叫Slack的MCP伺服器来完成这个任务。Host应用则负责记录和管理,所有安装到这台个人电脑上的各家MCP伺服器程式。

许多人用Type-C协定的比喻,来形容MCP对GAI模型和AI代理的意义。MCP协定就像是万能的Type-C协定,让模型可以透过一套统一的做法,取得不同来源的资料,也能串接不同业者的App来下达指令。使用者不用写任何程式,只需要动口或打出想完成的任务即可,剩下的工作都由GAI 模型透过MCP找到对应的资料,呼叫对应的App来执行。

只要使用者电脑上装了某一家App的MCP伺服器,就能让LLM直接呼叫这家App来用,完全不需要撰写任何一行程式码,也可能随时组合到不同的代理AI工作流程中。MCP框架是代理型AI运作模式的一大突破。

所以,从MCP框架问世后,几个月来,许多工具软体商,网路服务业者,纷纷宣布支援,打造自家服务的MCP伺服器,要供使用者下载。开源社群也有不少人自制非官方的版本,如非官方的Gmail MCP伺服器等。

不过,MCP框架也不尽然都是优点或机会,也带了新的风险,已有AI资安专家开始探讨MCP框架的资安风险,像是金钥凭证窃取、MCP伺服器入侵,提示指令注入攻击等。若像XZ Utils库供应链攻击事件那样,恶意攻击者伪装热心开发者,提供知名服务的非官方MCP伺服器程式,例如Gmail。这些未经验证的MCP伺服器,就可能成为个人电脑的新后门。

随著OpenAI宣布对MCP框架的支援,意味著超过4亿名ChatGPT用户的个人电脑,未来都有机会具备MCP框架的能力,这也将吸引更多工具商,软体商将MCP框架视为必备,代理AI可操控的工具量将会大量出现,进一步带动代理型AI应用的爆发。MCP框架伴随而来的资安风险,将是企业需要留意的新威胁,也会是台湾资安产业的新机会。