聊天机器人Tay“学坏” 微软致歉并紧急修复
http://n.sinaimg.cn/tech/transform/20160326/Vyfc-fxqswxx0254901.jpg微软Twitter聊天机器人Tay新浪科技讯 北京时间3月26日早间消息,微软开发的Twitter人工智能聊天机器人Tay上线首日就出现了问题,不但辱骂用户,还发表了种族歧视和性别歧视言论。微软已对此表示道歉。 微软研究院副总裁皮特·李(Peter Lee)周五表示:“对于Tay无意中发表的冒犯及伤害他人的Twitter消息,我们表示深深地道歉。这不代表我们自身以及我们的立场,也不是我们设计Tay的方式。” 他表示,微软将对Tay进行调整,使其更好地预测恶意活动。在此之后,Tay将会重新上线。他同时表示:“一小部分人利用Tay的漏洞合作发动了攻击。尽管我们已经为针对该系统的多种滥用行为做好准备,但对于这一特定攻击,我们也进行了关键监控。” 微软于本周三推出了Tay,这一聊天机器人能在Twitter和其他消息平台上与用户互动。Tay能够模仿人类用户的评论,生成自己的回答,并根据整体互动情况去发言。这一聊天机器人希望模仿典型的“千禧年一代”的日常谈话。因此,许多用户都想看看,究竟能教会Tay什么样的言论。 Tay发表的不当言论在Twitter上被迅速删除,而Tay本身也被下线。一些Twitter用户认为,微软可能手动禁止了部分用户与聊天机器人互动,而另一些人则质疑,为何微软没有开发过滤系统,阻止Tay讨论禁忌的话题。 皮特·李表示,Tay并非微软发布的首个人工智能应用,在中国的聊天机器人“小冰”已被4000万人使用。 他表示:“在开发Tay的过程中,我们计划并配置了许多过滤系统,并在多样化的用户群体中进行了广泛的用户调研。我们在多种不同环境中对Tay进行了压力测试,尤其是确保与Tay的互动能带来积极体验。”在完成这些工作后,微软面向更广泛的用户发布了Tay。 这一聊天机器人面向18至24岁美国人,希望通过休闲而有趣的对话去娱乐用户。Tay的最初数据和内容来自多名谐星的公开言论,而未来还将通过更多的互动逐步改进,以更好地理解内容,分辨对话中的细微之处。这一机器人的开发者也会收集Tay聊天对象的昵称、性别、喜欢的食品、邮政编码和恋爱关系等信息。 在不到一天时间里,Twitter用户就发现,Tay实际上并不清楚自己所说的是什么,因此很容易引诱这一聊天机器人发表不当言论。在这些用户的“指导”下,Tay发表了否认大屠杀、支持种族灭绝,将女权主义等同为癌症,以及支持希特勒的言论。Tay甚至模仿美国总统候选人特朗普的说法称:“我们将建立一道墙,而墨西哥需要为此付费。” 皮特·李表示:“未来我们将吸取教训,并借鉴来自中国、日本和美国的经验。目前,我们正在努力解决这一漏洞。”(维金)
页:
[1]