当前位置:统一通信/协作企业动态 → 正文

Facebook说,“意识囚禁”错在用户

责任编辑:王李通 作者:橙太白 |来源:企业网D1Net  2015-05-09 09:14:09 本文摘自:雷锋网

互联网的发展信息的爆发,会不会加速“回音室”(echo chamber)效应?在这个时代,我们每天都会获得很多信息,而信息过滤机制,具体地说是那些看不见的算法,让我们只跟政见相同的人交朋友,只看到我们想看到的东西,只听到自己认同的观点,似乎这个世界就是我们想得那样,不断重复之后,那些观点不断加深,最终变成一个只能听到自己声音的“密室”。这就是回音室效应(echo chamber effect)。可怕的是,像Facebook和Google这样的巨头,它们一直在努力改进算法,让我们深陷其中。

而今天发表在《科学》杂志上一篇名为《Exposure to ideologically diverse news and opinion on Facebook(Facebook的消息和观点呈现意识形态多样化)》的论文则得出了不同的观点。在这篇论文中,Facebook数据科学家们首次尝试量化社交网络的信息流(News Feed)群分用户的程度。根据该论文的研究结果,回音室效应的直接原因并非Facebook的算法,而是用户本身。

在过去6个月的时间里,Facebook的研究人员回顾了1010万个美国的匿名账户,收集这些用户的网友信息和反应意识形态偏好的状态。结果发现,这些人不会总是处于观点相同的环境中,而是大部分时间出现在观点不同的地方。研究人员表示,Facebook的算法让自由派有8%的时间存在于单一的观点中,而保守派则是5%的时间。这说明在大部分时间里,Facebook没有让用户局限接受同类的信息,而是多元化的信息。

Facebook的算法会通过用户的个人喜好决定News Feed信息流的链接,而该研究发现,信息的接受不完全决定于算法,还有很大一部分原因是用户本身是否点击。这个的意思是,算法只是决定信息的呈现,是否接受,还是由用户自身决定。

以上研究的结果,换句话来说就是,Facebook的算法阻碍用户接受多元化的观点的程度远远比不上用户本身。就是说,用户应该为只有单一意识形态而且“活在自己的世界”负责。

对此,有批评人士指出,这份研究论文有严重的逻辑缺陷。首先是Facebook的算法已经过滤了一些消息,用户看到的是Facebook自以为用户喜欢的,而后的不断重复操作更是加深了这种“自以为是”和“单一观点”。而且还有一些订阅功能,这两方因素不断加强“错误”。在这样的轮回中,被算法过滤的信息、用户不去点击某个链接查看某些消息,并不等于用户不接受,不认同。

需要提出的是,在Facebook的这次研究中,用户的样本选择有偏差,局限于把定义自己为自由派或者保守派的用户。而且研究样本量仅占14亿用户一小部分。

事实上,这不是Facebook第一次进行用户研究了。早前,该公司还进行了一项关于用户情绪与Facebook信息的关系,因为有观点认为Facebook在操纵用户的情绪。如果这一次Facebook的研究数据是正确的,那么,形成回音室的真正原因是我们本身。

关键字:Facebook改进算法

本文摘自:雷锋网

x Facebook说,“意识囚禁”错在用户 扫一扫
分享本文到朋友圈
当前位置:统一通信/协作企业动态 → 正文

Facebook说,“意识囚禁”错在用户

责任编辑:王李通 作者:橙太白 |来源:企业网D1Net  2015-05-09 09:14:09 本文摘自:雷锋网

互联网的发展信息的爆发,会不会加速“回音室”(echo chamber)效应?在这个时代,我们每天都会获得很多信息,而信息过滤机制,具体地说是那些看不见的算法,让我们只跟政见相同的人交朋友,只看到我们想看到的东西,只听到自己认同的观点,似乎这个世界就是我们想得那样,不断重复之后,那些观点不断加深,最终变成一个只能听到自己声音的“密室”。这就是回音室效应(echo chamber effect)。可怕的是,像Facebook和Google这样的巨头,它们一直在努力改进算法,让我们深陷其中。

而今天发表在《科学》杂志上一篇名为《Exposure to ideologically diverse news and opinion on Facebook(Facebook的消息和观点呈现意识形态多样化)》的论文则得出了不同的观点。在这篇论文中,Facebook数据科学家们首次尝试量化社交网络的信息流(News Feed)群分用户的程度。根据该论文的研究结果,回音室效应的直接原因并非Facebook的算法,而是用户本身。

在过去6个月的时间里,Facebook的研究人员回顾了1010万个美国的匿名账户,收集这些用户的网友信息和反应意识形态偏好的状态。结果发现,这些人不会总是处于观点相同的环境中,而是大部分时间出现在观点不同的地方。研究人员表示,Facebook的算法让自由派有8%的时间存在于单一的观点中,而保守派则是5%的时间。这说明在大部分时间里,Facebook没有让用户局限接受同类的信息,而是多元化的信息。

Facebook的算法会通过用户的个人喜好决定News Feed信息流的链接,而该研究发现,信息的接受不完全决定于算法,还有很大一部分原因是用户本身是否点击。这个的意思是,算法只是决定信息的呈现,是否接受,还是由用户自身决定。

以上研究的结果,换句话来说就是,Facebook的算法阻碍用户接受多元化的观点的程度远远比不上用户本身。就是说,用户应该为只有单一意识形态而且“活在自己的世界”负责。

对此,有批评人士指出,这份研究论文有严重的逻辑缺陷。首先是Facebook的算法已经过滤了一些消息,用户看到的是Facebook自以为用户喜欢的,而后的不断重复操作更是加深了这种“自以为是”和“单一观点”。而且还有一些订阅功能,这两方因素不断加强“错误”。在这样的轮回中,被算法过滤的信息、用户不去点击某个链接查看某些消息,并不等于用户不接受,不认同。

需要提出的是,在Facebook的这次研究中,用户的样本选择有偏差,局限于把定义自己为自由派或者保守派的用户。而且研究样本量仅占14亿用户一小部分。

事实上,这不是Facebook第一次进行用户研究了。早前,该公司还进行了一项关于用户情绪与Facebook信息的关系,因为有观点认为Facebook在操纵用户的情绪。如果这一次Facebook的研究数据是正确的,那么,形成回音室的真正原因是我们本身。

关键字:Facebook改进算法

本文摘自:雷锋网

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^