AI智能体,是不是可以慢一点?

Manus 爆火之后,产品过度营销曾使其一度饱受业内争议——不自研大模型,而是基于第三方大模型进行工程化包装,实现通用 AI 智能体(Agent)的能力。在创始团队看来,极致的套壳就是一种胜利。

大模型应用套壳其实是个微妙的话题。特别是在此之前,无论是 DeepSeek 还是 OpenAI,亦或是加入基础大模型混战的知名科技企业、AI 大模型创企,都以标榜自家的基础大模型自研技术能力为荣。

也因此,大模型研发作为一项需要卷算力、卷数据、卷算法的系统性底层工程,且赢者通吃,市场的聚光灯也始终聚焦于头部企业。对于只做上层应用的 AI 套壳或 " 借鉴 " 企业而言,尽管市场爆发的可能性高,但始终不掌握底层核心技术,往往被认为缺乏风险承受能力。金沙江创投主管合伙人朱啸虎甚至直言:" 所有 AI 应用都是套壳应用,说有壁垒是忽悠人的。"

尽管如此,笔者注意到,仅在一个多月的时间内,部分大模型大厂已正快速下探到 Manus 所在的赛道—— AI 智能体。而另据外媒报道,Manus 背后的公司 " 蝴蝶效应 " 获得了由美国风投 Benchmark 领投的一轮融资,融资金额达 7500 万美元。该轮融资让 Manus 的估值提升至近 5 亿美元。

这种迹象表明,市场需要借 DeepSeek-R1 大模型普及和 Manus 应用爆火的催化,去化解过去企业智能化转型过程中遗留的大量业务需求和技术空白。AI 智能体在产品设计、商业化服务、安全治理等方面,既是新问题,也是老问题。

大厂下探 AI 智能体,很努力

目前大厂正加快布局 AI 智能体。

据相关媒体报道,Manus 出圈前后,字节就搞了至少 5 个团队在开发不同 AI 智能体产品。而据百度官方,新上线的 " 心响 "APP 则由一群 95 后组成的团队,在 30 天内研发出来。

目前字节推出了智能体协作平台 " 扣子空间 ",通过部署多类型 AI 智能体,调用精通各项技能的 " 通用实习生 " 与各行各业的 " 领域专家 " 两种专业身份处理任务。基于 " 扣子空间 ",初步提供两种专家 Agent,一是针对股票分析的 " 华泰 A 股观察助手 ",另一个则是针对行研分析的 " 用户研究专家 "。

而百度亮相的体 " 心响 "APP,则是一款宣称对标 Manus 的通用 AI 智能体,涵盖超 200 个任务类型,包括日常的例行任务、城市旅游规划,专业性较强的深度研究、法律咨询、健康咨询等。

而与 Manus 合作密切的阿里也动作频频。最早在 3 月份,阿里就与 Manus 达成战略合作,双方将基于通义千问系列开源模型,在国产模型和算力平台上实现 Manus 的全部功能。近日,阿里旗下 AI 智能体 " 心流 " 开启了高级研究模式公测,用户可填写问卷等待邀请。该智能体宣传称能像人类专家一样,自动帮做研究、写报告、写代码。

为了进一步达成 AI 智能体生态的构建,上述厂商也不约而同先后拥抱 MCP 机制。

4 月 9 日,阿里云百炼上线业界首个全生命周期 MCP 服务,同日,腾讯云上线正式发布 "AI 开发套件 ",蚂蚁集团旗下的 OceanBase 也已实现 MCP 协议的对接。百度则引入基于百度搜索的 MCP Server 发现平台和 MCP Server 服务。目前阿里百度腾讯字节旗下一部分 AI 智能体产品均支持 MCP 协议,大厂的生态作用也可进一步凸显。

民生证券指出,A2A 协议主要聚焦于智能体之间的通信,而 MCP 则有助于连接工具和资源。基于类 MCP 协议 +Agentic-based 决策路径将成为未来 AI 智能体的主流范式,大厂有望通过 MCP 协议引入大量生态伙伴,推动国内 AI 智能体产业发展。

" 我们是不是可以慢一点 "

但一路向前狂奔的 AI 智能体技术是否在迎合当下用户的真正需求?

在安全风险性层面,安全往往是验证一项技术的关键。鉴于 AI 智能体的设计初衷是自主执行决策、任务或目标,并且理想情况下是在无人监督的情况下,因此风险更高,必须更加密切地关注其使用情境,以降低可预见的风险。

" 从整个 AI 智能体的技术发展来说,它不管是在 " 攻 " 还是 " 防 ",现在都是发展初期,没有看到特别多的案例。"Gartner 研究高级总监赵宇告诉笔者。

从需求侧,最近一段时间与中国企业客户的交流中,赵宇发现," 客户现在整体的认知相对不足。至少有七成或更多的客户并不了解 AI 智能体是什么,更罔论与之相关的安全风险。"

" 虽然有一些甲方 IT 负责人已经认识到问题,但这样的声音还不太普遍。他们希望是不是可以放慢 AI 的步伐,把一些配套的安全治理、风险控制等能力补充起来。" 赵宇说。

例如,AI 本身的幻觉、提示注入攻击、数据泄露等带来的风险问题,在 AI 智能体的应用中可能会被进一步放大;AI 智能体自主决策的风险,无论是被恶意攻击者利用还是其本身的完备性和能力,带来的是无法防控、不可预测的风险;物理环境层面的风险,同样不容忽视。

此外,随着多智能体协作运行模式的流行,这种模式确实提高了任务效率,但也导致访问控制漏洞的出现,比如访问控制级联失控,以及资源的竞争和冲突。多个智能体协同时,风险级别与安全管理的复杂度急剧上升,传统的安全工具将很难进行监控和异常行为检测。

" 多智能体在交互过程中可能需要访问相同资源或者执行任务时,可能会产生一些冲突,那么就会导致系统资源被过度滥用或者任务执行效率降低,就会影响整体的业务和系统稳定性。" 赵宇指出。

而在厂商侧,由于 AI 智能体自身的发展还处于初期,市面上对其安全风险和控制措施的研究同样处于早期阶段。

赵宇进一步指出,部分 AI 厂商、大模型厂商或 AI 智能体厂商,都没有配备相应专职的安全团队。厂商目前交付的产品是否可以通过安全测试,或者是否存在有被攻击者可利用的漏洞,等等这些在安全性上都是存疑的。其次,现在大部分企业不管是厂商还是甲方企业,还是比较关注短期的商业利益,所以对于长期安全风险的重视程度其实也不太够。

此外,AI 安全可能也需要全局性工作,很难从单一厂商的安全措施就可以覆盖掉整个链条的风险。

正确认识 AI 智能体

技术常有常新,无需过度画饼。到底何为 AI 智能体?这个概念其实已经出现审美疲劳。更快速的变化在于,围绕 AI 智能体(Agent)延伸而出的 Agentic AI、Agentic Workflow、MCP、A2A 等新名词,已经成为最近一段时间更炙手的话题。

例如,Manus 演示视频展示的是一个独立的智能体:AI 智能体可在短短几秒钟内对简历进行分类、对候选人进行排名,以及在电子表格中格式化数据。用户还可用于分析股票市场趋势、从互联网上抓取数据,甚至可以从头开始创建一个网站。

按照微软的说法,以后每个人都会使用多个智能体,同时会有大量专业智能体,而不是只有一个超级智能体。那么,每个智能体都有自己的角色和职责,大量多个智能体需要通过通信和协作来达成目标。这也是 Anthropic、谷歌两家公司分别提出 MCP、A2A 的原因,其本质上都是在解决智能体搭建的效率问题。

当下来看,业内对 AI 智能体的实践目标是使其真正意义上适应复杂的应用场景。AI 智能体要构建一个能够自主决策、与环境交互的智能体,需要解决感知、理解、规划、执行等多个环节的技术难题,且各环节之间需要高度协同,从被动执行固定指令到主动进化,其技术架构和实现方式远比传统的软件系统复杂。

比如在自动驾驶领域,当前车企针对端到端自动驾驶系统的改造逻辑,正是对传统系统中的感知、融合、预测、规划、控制、定位等技术模块进行 AI 融合,在业务流程上体现出的不是简单模块间的拼接。

那么,AI 智能体或多个 AI 智能体,在主动适应复杂工作流程的过程中,就不可能像 RPA 等技术在严格划分的场景中有效运作,而是基于动态环境和业务流程的变化,以最佳方式实现预期结果。

因此,在应用和实践 AI 智能体之前,对其原理、成本及风险性等诸多需要考量的关键因素进行解构。

可能对于有多年智能化探索经验的客户而言,希望 " 慢一点 " 的本质在于,在 AI 智能体领域的治理能力和认知的提升,重要的不是听一个个花式技术名词,而是怎么能在大量的实践和基础夯实中找到成功的故事共鸣。(本文首发于钛媒体 APP,作者 | 杨丽,编辑 | 盖虹达)