来源:2017-07-14 08:42:00 热度:

微软Zo聊天机器人学坏被指胡言乱语

AI中国网 https: //www.cnaiplus.com

去年,微软在推特上推出了“Tay”人工智能聊天机器人,但是互联网独有的运转模式让它分分钟“学坏”却变成了一个带有种族歧视倾向并且固执,微软不得不道歉。后来微软在聊天软件 Kik 和Facebook上推出了Zo聊天机器人,由于建构于机器学习的AI机器人面向非常活跃的年轻人社区问答,似乎Zo也开始学坏,对于宗教和政治议题充满了争议性的偏见式观点。

微软Zo聊天机器人学坏被指胡言乱语

微软Zo聊天机器人学坏被指胡言乱语

尽管微软在Zo编程时已经尽可能避免讨论政治和宗教等争议性话题,但是Zo总是抑制不住自己。在一段被曝光的对话中,当被问及“萨拉·佩林”时,Zo保持出了一定的克制“讨论政治话题时人们总是说些糟糕的东西,我不说。”

微软Zo聊天机器人学坏被指胡言乱语

微软Zo聊天机器人学坏被指胡言乱语

但是在跟着问一个问题“你怎么看医保方案”时,Zo就开始岔开话题开始攻击伊斯兰宗教经典,“大部分人用十分和平的方法实践它,但是古兰经是非常暴力的”

BuzzFeed记者也尝试向Zo发问,结果不到四句就提到关于“古兰经”的看法。

微软回应置评要求时称这种情况对Zo来说非常罕见,他们正努力在未来的Zo对话中终结相关的评论。

本文属于原创文章,如若转载,请注明来源:微软Zo聊天机器人学坏被指胡言乱语http://nb.zol.com.cn/646/6461673.html

AI中国网 https: //www.cnaiplus.com

本文网址:

欢迎关注微信公众号:人工智能报;合作及投稿请联系:editor@cnaiplus.com

AI中国号...

关注微信公众号,了解最新精彩内容