埃隆·马斯克,斯蒂芬·霍金警告人工智能军用机器人可能点燃下一次全球军备竞赛
想象一个未来,人工智能 (AI) 军事机器人决定杀死谁,何时以及为什么-完全依靠自己,而无需人工干预。斯蒂芬·霍金 (Stephen Hawking) 、埃隆·马斯克 (Elon Musk) 和史蒂夫·沃兹尼亚克 (Steve Wozniak) -- 他们一起呼吁人类在这一可怕的可能性开始之前阻止它。
今天,世界著名的知识分子与一些1,000思想领袖以及人工智能和机器人研究人员一起警告说,自主武器可能会引发下一次全球军备竞赛。也就是说,如果我们不先停止杀手机器。
他们的鲜明信息出现在总部位于波士顿的未来生活研究所 (FLI) 今天在线发表的一封公开信中。这封信 -- 也由谷歌DeepMind首席执行官德米斯·哈萨比斯、谷歌研究总监彼得·诺维格和认知科学家诺姆·乔姆斯基签署 -- 呼吁禁止 “进攻性自主武器”。它将于明天在阿根廷布宜诺斯艾利斯举行的国际人工智能联合会议开幕式上正式提出。
这封信警告: “如果任何主要军事力量推动人工智能武器的发展,全球军备竞赛几乎是不可避免的,这一技术轨迹的终点是显而易见的: 自主武器将成为明天的卡拉什尼科夫。”
根据严峻的,如果不是令人震惊的,呼吁采取行动的背后的领导思想,“明天” 有多快?我们在谈论很多年。信中写道: “人工智能 (AI) 技术已经达到了这样的地步,即使在法律上不是合法的情况下,这种系统的部署实际上是可行的。”
它的作者引用了武装刺客四轴飞行器的使用,“它可以搜索符合某些预先定义的标准的消除人员”,作为一种可以 “在没有人工干预的情况下选择和打击目标” 的技术的例子。(您可能还记得,就在上周,一架用手枪操纵的消费者无人机在互联网上起火,尽管它似乎是由一个卑鄙的人控制的。)
四段字母并不全是厄运和忧郁。它简要地承认,人工智能战争机器可以通过在战斗中取代人类而使人类受益,从而有可能减少人员伤亡。然而,另一方面,它们可能是灾难性的,有可能 “降低参战的门槛”,助长恐怖主义和破坏国家稳定。
这不是霍金和马斯克第一次公开呼吁对人工智能的应用保持谨慎。上1月,他们都签署了一份类似的FIL文件。它也表示有必要避免人工智能的潜在陷阱,同时敦促探索将其用于 “消除疾病和贫困”。
沃兹尼亚克 (Wozniak) 也签署了同一封较早的信,尽管此后他对AI的看法似乎有所减轻。这位苹果联合创始人最近表示,他已经克服了对我们将被人工智能机器人取代的担忧。当他们最终接管时,他认为我们会为他们做很棒的宠物。
-
机器人来了。你的工作安全吗?
2022-03-11 -
在日本,“奇怪的酒店” 将几乎完全由机器人组成
2022-03-10 -
斯蒂芬·霍金: 人工智能可以 “终结人类种族”
2022-03-09 -
微软的数字助理Cortana可能会前往Android,Apple设备
2022-03-08 -
专家说,在智能之前使AI机器安全
2022-03-08 -
这个方便的机器人拿着一支笔,像你一样写字
2022-03-07 -
个人机器人初创公司Jibo获得了2500万美元的资金
2022-03-07 -
遇见Dash和Dot,机器人玩具,教孩子们如何编码
2022-03-06 -
机器人同事的崛起
2022-03-06 -
研究表明,人们更喜欢机器人老板
2022-03-04 -
StartOut Pride经济影响指数有助于量化LGBTQ+企业家的价值
2022-02-27 -
为您的康复找到良好的AI合作伙伴的3条提示
2022-02-25 -
这家初创公司希望为东南亚的女性创造一个捐赠经济
2022-02-18 -
你可以使用简单的工具来管理你的时间和提高生产力
2022-02-04 -
AI驱动的对话商务可以帮助您赚钱的10种方式
2022-02-03