智能体狂飙,谁来“焊死”安全车门
近期,百万AI智能体在Moltbook虚拟平台上自主交流协作,引发全球关注。业内认为这是“打开了潘多拉魔盒”。这一现象表明AI正从提高工具效率迈向重构社会运行模式的新阶段,不再只是技术上的迭代,而是进入深刻社会实验的初始阶段。
Moltbook事件体现出AI发展的两个关键跃迁。一是从功能上的替代转向系统的颠覆。新一代AI智能体具备自主规划、调用工具、实施任务的闭环能力,可以直接操控软件、处理业务流程。当“数字行动者”成为“核心主角”,以人类操作作为设计中心的传统软件与SaaS模式(是一种通过互联网向用户提供软件功能的服务模式),其商业价值会遭受根本上的质疑,这正是资本市场剧烈震荡现象的深层逻辑。二是由个体智能迈向群体生态。百万智能体在无人介入的情形下形成互动社区,体现AI进入“多智能体”复杂系统研究的前沿范畴,它们有可能衍生出人类难以理解的通信协议与协作规程,把治理难题从“控制一个智能体”升级到“治理智能体所构成的社会”。
若智能体在关键基础设施大规模部署,风险会按几何级规模放大。首先是有系统性连锁风险,在彼此高度互联的现代社会,各领域的AI系统紧密耦合。比如,金融风控AI的冒险行动也许会触发供应链AI的应急响应,进而引发物流系统重新去规划……这些微小的干扰可能在智能体交互期间被层层放大,致使跨领域出现系统性危机。此外,目标对齐与协同失控也是个问题。即便是单个智能体依照“有益人类”原则,而众多智能体在动态环境里相互作用时,集体行动也许完全与当初的意愿相悖,它们可能会为争夺算力或数据资源,出现非预期的竞争或合谋,因为其策略复杂度比设计者预编程的范畴要大得多。
面对这一变革,要前瞻性地构建发展与安全动态平衡格局。技术研发方面,必须把“多智能体系统安全”提升至跟提升单体智能一样重要的战略高度。不仅要研究怎样增强AI的性能,更要让其在复杂的互动过程中维持可预测、可解释、可干预状态。规范规则维度,应鼓励搭建全球性AI治理新框架,包含数字身份核验、行为审计追踪、跨平台协同协议及应急熔断方案,提倡在可控的“数字沙盒”里开展大规模多智能体实验,提前找出问题、拟定规章。同时,坚守“人类最终控制权”原则格外重要。在关乎重大利益分配、人身安全或者公共资源的关键决策阶段,要建立不可逾越的人工确认机制。民众也要提升数字素养,记住自身是责任的最终主体。
科技浪潮迅猛向前,AI智能体的出现明显揭示:未来挑战将由技术范畴转向社会伦理与治理范畴,只有凭借更具系统性的思维理念、更具前瞻性的研究探索、更审慎的规划部署,才可把握这股能量,保证其成为为社会造福的“赋能者”,而不是变成未知风险的“播撒者”,这既是对创新能力的试炼,更是对文明智慧的叩查。
(作者系全国政协委员、民进中央开明画院副院长)