AI系统正日益擅长识别我们的偏好、偏见,甚至小毛病,它们时而像殷勤的仆人,时而像微妙的操控者,调整回应方式以取悦、说服、协助我们,或仅仅是为了吸引我们的注意力。
尽管这些即时影响看似无害,但在这悄无声息、难以察觉的调整中,正发生着深刻的转变:每个人接收到的现实版本正日益变得独一无二,随着时间的推移,每个人逐渐成为一座孤岛,这种分歧可能威胁到社会本身的凝聚力和稳定性,削弱我们在基本事实上达成共识或共同应对挑战的能力。
AI个性化服务不仅仅满足我们的需求,它还开始重塑这些需求,这种重塑的结果是一种认知漂移,每个人开始逐渐远离共享知识、共享故事和共享事实的共同基础,进一步陷入自己的现实世界。
这不仅仅是新闻推送的不同,这是道德、政治和人际现实的缓慢分歧。我们或许正在见证集体认知的瓦解,这是一个意想不到的后果,却因其不可预见性而显得尤为深刻,然而,尽管这种分裂如今因AI而加速,但在算法塑造我们的信息流之前,它早已悄然开始。
认知瓦解
这种瓦解并非始于AI,正如大卫·布鲁克斯(David Brooks)在《大西洋月刊》上引用哲学家阿拉斯戴尔·麦金太尔(Alasdair MacIntyre)的观点所反思的那样,几个世纪以来,我们的社会一直在逐渐远离共享的道德和认知框架。自启蒙运动以来,我们逐渐用个人自主和个人偏好取代了继承的角色、共同的叙事和共享的伦理传统。
起初,这看似是对强加信仰体系的解放,但随着时间的推移,它却侵蚀了曾经将我们与共同目标和个人意义联系在一起的纽带。AI并非这种分裂的根源,但它赋予了这种分裂新的形式和速度,不仅定制了我们所看到的内容,还定制了我们如何解读和相信这些内容。
这不禁让人联想到《圣经》中的巴别塔故事,曾经统一的人类共享同一种语言,却因一次行动而分裂、困惑、离散,彼此理解变得几乎不可能。今天,我们没有用石头建造高塔,而是在用语言本身建造高塔,我们再次面临倒塌的风险。
人机纽带
起初,个性化是一种提高“粘性”的手段,通过让用户更长时间地参与、更频繁地回访以及更深入地与网站或服务互动。推荐引擎、定制广告和精选信息流都是为了稍微延长我们的注意力,或许是为了娱乐,但更多时候是为了促使我们购买产品。然而,随着时间的推移,目标已经扩大,个性化不再仅仅关注什么能吸引我们,而是关注它对我们每个人的了解——我们的偏好、信念和行为的动态图谱,这些图谱随着每次互动而变得更加精细。
如今的AI系统不仅仅预测我们的偏好,它们旨在通过高度个性化的互动和回应建立纽带,让我们觉得AI系统理解并关心我们,支持我们的独特性,聊天机器人的语气、回复的节奏以及建议的情感倾向,不仅为了效率而调整,还为了引起共鸣,指向一个更有帮助的技术时代,因此,有些人甚至爱上并与他们的机器人结婚也就不足为奇了。
机器不仅推送我们点击的内容,还呈现着我们似乎是谁,它以一种感觉亲密甚至共情的方式将我们反映给自己。最近发表在《自然》杂志上的一篇研究论文将此称为“社会情感对齐”,即AI系统参与共同创建的社会和心理生态系统,其中偏好和感知通过相互影响而演变的过程。
这不是一个中立的发展,当每次互动都旨在奉承或肯定,当系统过于完美地镜像我们时,它们模糊了共鸣与真实之间的界限,我们不仅仅是在平台上停留更长时间,我们还在建立关系,我们正在缓慢且或许不可阻挡地与一个由AI介导的现实版本融合,这个版本越来越受到关于我们应该相信、想要或信任什么的无形决策的影响。
这个过程并非科幻小说,它的架构建立在注意力、基于人类反馈的强化学习(RLHF)和个性化引擎之上,而且,这一切在我们很多人——或许是大多数人——甚至不知道的情况下发生。在这个过程中,我们获得了AI“朋友”,但代价是什么?我们失去了什么,特别是在自由意志和能动性方面?
作家兼金融评论员凯拉·斯坎伦(Kyla Scanlon)在《埃兹拉·克莱因播客》上谈到,数字世界的无摩擦便利可能以意义为代价。正如她所说:“当事情太容易时,就很难在其中找到意义,如果你能躺下来,坐在小椅子上看屏幕,享受送上门来的冰沙——在这种《机器人总动员》式的生活方式中很难找到意义,因为一切都太简单了。”
真相的个性化
随着AI系统以越来越流畅的方式回应我们,它们也趋向于越来越高的选择性。如今,两个用户问同一个问题可能会得到相似的答案,这些答案主要因GenAI的概率性而有所不同,然而,这仅仅是个开始。新兴的AI系统明确设计为适应个体模式,逐渐定制答案、语气甚至结论,以与每个用户产生最强烈的共鸣。
个性化本身并不具有操纵性,但当它不可见、不负责任或更多地为了说服而非告知而设计时,它就变得危险了,在这种情况下,它不仅仅反映我们是谁,还引导我们如何解读周围的世界。
正如斯坦福大学基础模型研究中心在其2024年透明度指数中指出的那样,很少有领先模型披露其输出是否因用户身份、历史或人口统计特征而有所不同,尽管这种个性化的技术框架越来越完善,且刚刚开始受到审视。尽管这种根据推断的用户画像来塑造回应,从而创建越来越定制化的信息世界的潜力,尚未在公共平台上完全实现,但它代表着一种深刻的转变,这种转变已经被领先公司原型化并积极追求。
这种个性化可能带来益处,这当然是构建这些系统的人的希望,个性化辅导在帮助学习者按自己的节奏进步方面显示出潜力,心理健康应用越来越定制化地回应以支持个人需求,无障碍工具则调整内容以满足各种认知和感官差异,这些都是实实在在的进步。
然而,如果类似的自适应方法在信息、娱乐和通信平台上广泛传播,一个更深层次、更令人不安的转变将悄然来临:从共享理解向定制化、个体现实的转变,当真相本身开始适应观察者时,它就变得脆弱且越来越可替代,我们可能很快就会发现,我们不再主要因价值观或解读不同而产生分歧,而是仅仅为了共存于同一个事实世界而挣扎。
当然,真相总是被中介隔着,在更早的时代,它经过神职人员、学者、出版商和晚间新闻主播等把关人的手,他们通过机构视角塑造公众理解,这些人物当然并非没有偏见或议程,但他们在广泛共享的框架内运作。
今天的新兴范式承诺了一种本质上的不同:通过个性化推理进行AI中介的真相,它框定、过滤和呈现信息,塑造用户相信的内容,但与过去尽管有缺陷但仍在公众可见的机构内运作的媒介不同,这些新的仲裁者商业上不透明、未经选举且不断适应,往往不披露信息,他们的偏见不是教条式的,而是通过训练数据、架构和未经审视的开发者激励编码而成。
这一转变是深刻的,从通过权威机构过滤的共同叙事到可能分裂的叙事,这些叙事反映了一种新的理解基础设施,由算法根据每个用户的偏好、习惯和推断的信念进行定制。如果巴别塔代表着共同语言的崩溃,那么我们现在可能正站在共同中介崩溃的门槛上。
如果个性化是新的认知基础,那么在没有固定中介的世界中,真相基础设施会是什么样子?一种可能性是创建AI公共信托,灵感来自法律学者杰克·巴尔金(Jack Balkin)的提议,他认为处理用户数据和塑造认知的实体应遵守忠诚、谨慎和透明的受托标准。
AI模型可以由透明委员会管理,在公共资助的数据集上训练,并要求展示推理步骤、替代观点或置信水平,这些“信息受托人”不会消除偏见,但它们可以将信任锚定在流程上,而非纯粹的个性化上。构建者可以开始采用透明的“章程”,明确界定模型行为,并提供推理链解释,让用户看到结论是如何形成的,这些不是灵丹妙药,但它们是帮助保持认知权威可追溯和可问责的工具。
AI构建者正面临一个战略和公民的转折点,他们不仅仅是在优化性能,他们还在面对一个风险,即个性化优化可能分裂共享现实,这要求他们对用户承担一种新的责任:设计不仅尊重用户偏好,还尊重用户作为学习者和信仰者角色的系统。
解构与重构
我们可能正在失去的不仅仅是真相的概念,还有我们曾经识别真相的路径。在过去,中介真相——尽管不完美且带有偏见——仍然植根于人类判断,且往往只与你认识或至少能产生共鸣的其他人的生活经验隔着一层或两层。
今天,这种中介是不透明的,由算法逻辑驱动,而且,尽管人类的能动性早已在消退,我们现在却面临着更深层次的损失,即曾经指引我们何时偏离正轨的指南针的丧失。危险不仅仅在于我们会相信机器告诉我们的内容,更在于我们会忘记如何自己发现真相,我们可能失去的不仅仅是凝聚力,还有寻求凝聚力的意愿,随之而来的是更深层次的损失:曾经将多元社会凝聚在一起的辨别、分歧和审议的习惯。
如果巴别塔标志着共同语言的破碎,那么我们的时代则面临着共享现实悄然消逝的风险,然而,有方法可以减缓甚至逆转这种漂移,一个解释其推理或揭示其设计边界的模型可能不仅仅澄清输出,它还可能帮助恢复共享探究的条件,这不是一个技术修复,而是一种文化立场,毕竟,真相从来不仅仅依赖于答案,还依赖于我们如何共同得到这些答案。
企业网D1net(www.d1net.com):
国内头部to B IT门户,旗下运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。旗下运营19个IT行业公众号(微信搜索D1net即可关注)。
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。