算法也会产生偏见。
跟新浪微博、Twitter等社交网站一样,Facebook也是有公开的“热门话题”的,除了什么话题多人谈起从而自动上榜之外,热门话题背后还是有人工编辑团队的。
但最近,Facebook的热门话题编辑团队给撤掉了。
原因可能与马克扎克伯格被指责影响美国大选有关。今年5月,一名前Facebook热门话题(Trending Topic)项目的员工称,工作人员在推荐新闻时会刻意压制关于保守派相关的消息。
其实Facebook这个热门话题栏目并不起眼。在手机上,它甚至被隐藏到了搜索框下,其中一半还会被输入框给遮挡住。

后来,Facebook也做了澄清,表示在裁撤这个团队以前,Facebook的热门话题其实也不是由人工选择出来的。这些编辑的工作主要是审核来自订阅网站和算法本身推送的热门新闻,给它们写好摘要以及加上标签。
但最终,Facebook还是决定把这个由15-18人构成的编辑团队给裁掉,取而代之的是一群懂算法的工程师,他们的主要任务是核查通过算法所推送的文章及话题是否具备新闻价值。
但是不是用算法代替人,就能让事情变得更“公平”?这目前还很难说。
一方面算法也是由人设计的。作为一家社交媒体,Facebook最想做的是确保让你在应用里看的东西越来越多。所以,Facebook对算法追求的关键指标可能不是尽可能客观,而是什么是你最想看的内容。
另一方面,长久以来人类语言本身已经残留的偏见也会影响算法结果。
比如:当计算机在现实世界的资源中进行性别和职业的配对搜索时,比较极端的例子是“她”通常会对应家庭主妇、社交名媛、接待员等词,而哲学家、飞行员这些词则与“他”关联。
不仅是Facebook这种社交应用而已。在未来,给我们推荐内容、推荐商品或者给我们安排日常事务的人工智能“算法”,他们也会带有人类本身的偏见。
要创造一个毫无偏见的算法产品,现阶段几乎不可能。