自主式AI应用面临的最大障碍

责任编辑:cres

作者:Bernard Marr

2025-09-18 14:26:44

来源:企业网D1Net

原创

自主式AI被寄望于颠覆未来工作与生活,但其普及远非一蹴而就。信任缺失、配套基础设施落后、网络安全隐患,以及社会对AI决策和就业冲击的担忧,构成四大阻力。

所谓的自主式AI正在登场——据说它能带来超智能的AI助手,能够替我们执行复杂任务。这被视为继ChatGPT、Claude等仅能回答问题或生成内容的聊天机器人之后的下一代AI。

相关技术的开发者和销售方告诉我们,我们正处于一个“全自动化”未来的边缘:AI之间可以协作,并访问外部系统来完成大量日常的知识处理与决策任务。然而,就像“幻觉”、数据隐私和版权等新兴问题曾给生成式AI设置了难以跨越的障碍一样,自主式AI也面临着自己的挑战。

以下是我对开发智能体、希望采用该技术的企业,以及整个社会在实现自主式AI愿景之前必须克服的主要难题的梳理。

信任:最核心的挑战

要让智能体真正走向主流,达到足够的采用规模,信任是首要前提。

数据信任:我们必须愿意让它们处理敏感和个人数据,以便替我们做出决策。

技术信任:我们要相信技术本身可靠,不会被“幻觉”或其他AI缺陷所干扰。

决策信任:如果让AI帮我们做重要选择(如购物决策),我们必须确信它不会浪费我们的钱。

现实中,智能体并非毫无瑕疵,且已经有人证明它们可以被欺骗。企业虽然看到潜在价值,却同样清楚一旦失去客户信任将带来严重的声誉和业务损失。降低这些风险需要严密的规划与合规措施,而这对许多企业来说构成不小的门槛。

自主式基础设施的缺失

自主式AI依赖智能体与第三方系统交互和操作,但目前许多第三方系统尚未为此做好准备。

一些“电脑操作型”智能体(如 OpenAI Operator、Manus AI)通过计算机视觉来识别屏幕内容,从而像人类一样操作网站和应用,即便这些网站和应用并未专门为它们开发接口。

然而它们远非完美,当前基准测试表明,它们在许多任务上的成功率仍低于人类。

随着自主式框架的成熟,全球的数字基础设施也会随之发展。就像智能手机普及后,移动友好型网站花了几年才成为常态。

但在当下,这对需要智能体交互的电商、政府门户等服务运营方带来风险:

如果智能体做出错误的购买决定或误提交法律文件,责任归谁?

在这些问题得到解决前,服务提供方可能会犹豫是否允许智能体接入其系统。

安全隐患

稍加想象就能看出,智能体有潜在的安全噩梦:

它们被赋予广泛且受信任的工具、平台和数据访问权限,既是强大的助手,也可能成为网络犯罪的高价值目标。

一旦遭劫持或被滥用,犯罪分子可能直接操控我们的决策。

结合深度伪造钓鱼等高科技攻击,智能体可能为黑客、诈骗者和勒索者开辟新的攻击途径。

因此,无论是个人还是企业在部署智能体时,都必须具备抵御此类威胁的能力,但并非所有人都已做好准备。

文化与社会障碍

最后,还有超越技术层面的文化与社会因素:

有些人对让AI替自己做决定感到不安,无论这些决定多么琐碎。

也有人担心AI对就业、社会甚至环境的影响。

这些都是完全合理且可以理解的顾虑,不能仅靠自上而下的宣传或教育来消除。

要解决这些问题,必须证明智能体能够可靠、可信且符合伦理地运作,同时建立一个有效管理变革、并能公平分享自主式AI成果的社会文化。

未来的智能体

自主式AI的愿景令人震撼:数以百万计的智能系统在全球范围内协同互动,以更高效、更强大的方式完成任务。

但正如我们所见,阻碍这一愿景的障碍既有人类因素,也有技术因素。

我们不仅需要解决诸如AI幻觉等基础问题,构建可让智能体安全可信运行的基础设施,还必须让整个社会为人与机器协作模式的根本转变做好准备。

只有完成这些,智能体才能真正安全、普及,并在提升我们生活品质的同时,避免带来新的风险。

企业网D1net(www.d1net.com):

国内头部to B IT门户,旗下运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。旗下运营19个IT行业公众号(微信搜索D1net即可关注)。

版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

AI

链接已复制,快去分享吧

企业网版权所有©2010-2025 京ICP备09108050号-6京公网安备 11010502049343号