你在这里

是什么让微软Tay说出不该说的话?

美国微软公司刚刚推出的人工智能聊天软件Tay在发布不到一天后就被关闭,原因是这款软件发表不当言论。

微软公司为此作出道歉。不过,这也证明了另一点我们早就已经知道了的道理:互联网上的人们可以变得十分残忍。

这款叫Tay的聊天软件主要是针对社交媒体上18至24岁的年轻受众。微软的研究团队在推特、脸书、Snapchat等社交媒体上发布了这款软件。

不过,Tay的那些诸如反犹言论,很快被推特的用户收集放到了网上。还有人在推特上问Tay它是否支持种族灭绝,它的回答是:“绝对支持”。

所以,24小时以内,微软的技术部门说,他们要对Tay进行一些“调整”。

周五,微软研究部门的主管说,微软对“并没有针对性的侮辱性和伤人的推文表示深深的歉意”,微软也在推特上将Tay拿了下来。

善解人意的“小冰”

微软研究团队推出这款软件的原意是让社交媒体的用户能够与一个像真人一样的人工智能软件对话。

但些网民也就利用了这一点,向Tay提出了一些涉及种族歧视和冒犯性的问题,诱导其作出不恰当的回应。

但在中国情况就不同。中国的用户很早就在用一款叫“微软小冰”的聊天软件。因为这一产品让人感觉善解人意且会聊天,目前在中国已经有超过4000万的用户。

“小冰的经验让我们想:一个像这样的人工智能也会在另一个文化环境中如此吸引人吗?”微软的研究主管彼德·李问。

中西不同

彼德·李说,西方的用户在拿到类似的软件后,似乎更喜欢教它如何去诅咒别人,并将一个原本很好的软件变成一个具有冒犯性的产品。

类似产品最终在中国与西方截然不同的反馈,也迫使微软的研究团队试图改进类似的科技。

下周,微软将举办一年一度的软件开发人员大会。在这个会上,有关人工智能的话题会被多次提及。

关键词: 
栏目: 

Theme by Danetsoft and Danang Probo Sayekti inspired by Maksimer