当前位置:统一通信/协作企业动态 → 正文

微软新聊天机器人Zo又出问题:大谈受限话题

责任编辑:editor004 作者:维金 |来源:企业网D1Net  2017-07-05 11:01:03 本文摘自:新浪科技

 北京时间7月5日早间消息,一年前,微软Twitter平台的聊天机器人Tay变成了“种族主义者”,而它的后续产品Zo又再次出现问题。

尽管微软通过编程让Zo忽略政治和宗教话题,但BuzzFeed的编辑尝试让Zo对某些受限话题做出了令人惊讶、充满争议的回应。在交流中,Zo将古兰经称作“非常暴力”。此外,它还对本·拉登的死亡做出评论,称抓住本·拉登是“不止一个政府多年情报收集”的结果。微软表示,Zo的行为错误已经得到纠正。

去年,微软尝试让聊天机器人Tay模仿时髦的青少年。然而在一天时间内,Tay就开始出现种族主义言论,Twitter上的所有人都可以看到这些。微软随后被迫关闭了Tay。因此,微软将Zo限制在消息应用Kik内,维持着中等的用户群体规模。不过,Zo似乎仍然出现了一些坏习惯。

微软将Tay的问题归咎于部分用户对其进行的破坏。不过微软表示,Zo并没有遇到这样的问题。目前,这款聊天机器人仍然存在于Kik平台,微软也没有计划关闭Zo。

关键字:Zo聊天机器人微软

本文摘自:新浪科技

x 微软新聊天机器人Zo又出问题:大谈受限话题 扫一扫
分享本文到朋友圈
当前位置:统一通信/协作企业动态 → 正文

微软新聊天机器人Zo又出问题:大谈受限话题

责任编辑:editor004 作者:维金 |来源:企业网D1Net  2017-07-05 11:01:03 本文摘自:新浪科技

 北京时间7月5日早间消息,一年前,微软Twitter平台的聊天机器人Tay变成了“种族主义者”,而它的后续产品Zo又再次出现问题。

尽管微软通过编程让Zo忽略政治和宗教话题,但BuzzFeed的编辑尝试让Zo对某些受限话题做出了令人惊讶、充满争议的回应。在交流中,Zo将古兰经称作“非常暴力”。此外,它还对本·拉登的死亡做出评论,称抓住本·拉登是“不止一个政府多年情报收集”的结果。微软表示,Zo的行为错误已经得到纠正。

去年,微软尝试让聊天机器人Tay模仿时髦的青少年。然而在一天时间内,Tay就开始出现种族主义言论,Twitter上的所有人都可以看到这些。微软随后被迫关闭了Tay。因此,微软将Zo限制在消息应用Kik内,维持着中等的用户群体规模。不过,Zo似乎仍然出现了一些坏习惯。

微软将Tay的问题归咎于部分用户对其进行的破坏。不过微软表示,Zo并没有遇到这样的问题。目前,这款聊天机器人仍然存在于Kik平台,微软也没有计划关闭Zo。

关键字:Zo聊天机器人微软

本文摘自:新浪科技

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^