相关技术的开发者和销售方告诉我们,我们正处于一个“全自动化”未来的边缘:AI之间可以协作,并访问外部系统来完成大量日常的知识处理与决策任务。然而,就像“幻觉”、数据隐私和版权等新兴问题曾给生成式AI设置了难以跨越的障碍一样,自主式AI也面临着自己的挑战。
以下是我对开发智能体、希望采用该技术的企业,以及整个社会在实现自主式AI愿景之前必须克服的主要难题的梳理。
信任:最核心的挑战
要让智能体真正走向主流,达到足够的采用规模,信任是首要前提。
数据信任:我们必须愿意让它们处理敏感和个人数据,以便替我们做出决策。
技术信任:我们要相信技术本身可靠,不会被“幻觉”或其他AI缺陷所干扰。
决策信任:如果让AI帮我们做重要选择(如购物决策),我们必须确信它不会浪费我们的钱。
现实中,智能体并非毫无瑕疵,且已经有人证明它们可以被欺骗。企业虽然看到潜在价值,却同样清楚一旦失去客户信任将带来严重的声誉和业务损失。降低这些风险需要严密的规划与合规措施,而这对许多企业来说构成不小的门槛。
自主式基础设施的缺失
自主式AI依赖智能体与第三方系统交互和操作,但目前许多第三方系统尚未为此做好准备。
一些“电脑操作型”智能体(如 OpenAI Operator、Manus AI)通过计算机视觉来识别屏幕内容,从而像人类一样操作网站和应用,即便这些网站和应用并未专门为它们开发接口。
然而它们远非完美,当前基准测试表明,它们在许多任务上的成功率仍低于人类。
随着自主式框架的成熟,全球的数字基础设施也会随之发展。就像智能手机普及后,移动友好型网站花了几年才成为常态。
但在当下,这对需要智能体交互的电商、政府门户等服务运营方带来风险:
如果智能体做出错误的购买决定或误提交法律文件,责任归谁?
在这些问题得到解决前,服务提供方可能会犹豫是否允许智能体接入其系统。
安全隐患
稍加想象就能看出,智能体有潜在的安全噩梦:
它们被赋予广泛且受信任的工具、平台和数据访问权限,既是强大的助手,也可能成为网络犯罪的高价值目标。
一旦遭劫持或被滥用,犯罪分子可能直接操控我们的决策。
结合深度伪造钓鱼等高科技攻击,智能体可能为黑客、诈骗者和勒索者开辟新的攻击途径。
因此,无论是个人还是企业在部署智能体时,都必须具备抵御此类威胁的能力,但并非所有人都已做好准备。
文化与社会障碍
最后,还有超越技术层面的文化与社会因素:
有些人对让AI替自己做决定感到不安,无论这些决定多么琐碎。
也有人担心AI对就业、社会甚至环境的影响。
这些都是完全合理且可以理解的顾虑,不能仅靠自上而下的宣传或教育来消除。
要解决这些问题,必须证明智能体能够可靠、可信且符合伦理地运作,同时建立一个有效管理变革、并能公平分享自主式AI成果的社会文化。
未来的智能体
自主式AI的愿景令人震撼:数以百万计的智能系统在全球范围内协同互动,以更高效、更强大的方式完成任务。
但正如我们所见,阻碍这一愿景的障碍既有人类因素,也有技术因素。
我们不仅需要解决诸如AI幻觉等基础问题,构建可让智能体安全可信运行的基础设施,还必须让整个社会为人与机器协作模式的根本转变做好准备。
只有完成这些,智能体才能真正安全、普及,并在提升我们生活品质的同时,避免带来新的风险。
企业网D1net(www.d1net.com):
国内头部to B IT门户,旗下运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。旗下运营19个IT行业公众号(微信搜索D1net即可关注)。
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。