微软为聊天机器人的种族主义,性别歧视推文道歉
一位公司官员周五在人工智能程序进行了令人尴尬的长篇大论之后写道,微软对上周推出的所谓聊天机器人所产生的种族主义和性别歧视Twitter消息 “深表歉意”。
该机器人被称为Tay,旨在随着越来越多的用户与之互动而变得 “更智能”。取而代之的是,它很快学会了模仿一系列反犹太人和其他可恶的煽动性言论,即人类Twitter用户开始喂养该程序,迫使Microsoft corptoo在周四将其关闭。
遭受挫折后,微软在博客中表示,只有其工程师能够找到一种方法来防止网络用户以破坏公司原则和价值观的方式影响聊天机器人,它才会复兴Tay。
微软研究副总裁彼得·李 (peter Lee) 写道: “我们对Tay发出的意想不到的冒犯性和伤害性推文深表歉意,这些推文并不代表我们是谁或我们代表什么,也不代表我们如何设计Tay。”
微软创建Tay作为一个实验,以了解更多关于人工智能程序如何与网络用户进行随意对话的信息。该项目旨在与年轻一代的千禧一代互动并向他们 “学习”。
Tay在周三开始了短暂的Twitter任期,并发布了一些无害的推文。
然后它的帖子出现了黑暗的转折。
在一个典型的例子中,Tay发了推文: “女权主义是癌症”,以回应另一位发布相同消息的Twitter用户。
Lee在博客文章中称,网络用户对聊天机器人施加恶意影响的努力是 “一部分人的协同攻击”。
“尽管我们已经为系统的许多滥用做好了准备,但我们已经对这种特定攻击进行了严格的监督,” 李写道。“结果,Tay在推特上发布了非常不恰当和应受谴责的文字和图像。”
微软2014年在中国推出了名为XiaoIce的聊天机器人,取得了更大的成功。据微软称,小冰有大约4000万人使用,并以 “其故事和对话令人愉悦” 而闻名。
至于泰?没那么多。
李写道: “在努力为代表人类最好而不是最坏的互联网做出贡献的过程中,我们将坚定不移地从这种经验和其他经验中学习。”
(Alex Dobuzinskis,Frank McGurty和peter Cooney编辑)
-
没有公牛! 这个机器人可以让牛仔失业。
2022-03-23 -
Jibo首席执行官说,机器人可能正处于广泛采用的风口浪尖。
2022-03-22 -
共享数据体验获利的3个步骤
2022-03-22 -
人们会对机器人撒谎,以免伤害他们的感情
2022-03-22 -
看着这个怪异的日本机器人像人类一样呼吸
2022-03-22 -
为什么你的移动应用失败了 -- 以及如何改变它 (信息图)
2022-03-22 -
观看1,000机器人齐声跳舞-并创造世界纪录
2022-03-22 -
在精神卫生危机期间,我们可以转向智能手机吗?
2022-03-22 -
索尼推出了PlayStation 4的新版本
2022-03-21 -
想建立下一个糖果粉碎吗?是这样的。
2022-03-21 -
微软在从Twitter用户那里学习性别歧视和种族主义后,将其AI聊天机器人作为基础
2022-03-21 -
微软和谷歌撤回所有针对对方的监管投诉
2022-03-21 -
这项创新技术为无声的人发声
2022-03-21 -
微软风险投资新理念
2022-03-21 -
构建应用程序时称重设计和功能
2022-03-20