当前位置:经济频道首页 > 经济要闻 > 正文

警惕机器人自主杀人!马斯克同26国专家联名发出警告

2017-08-21 12:43:17    第一财经APP  参与评论()人

对美国技术狂人、特斯拉CEO马斯克(Elon Musk)来说,人工智能的崛起是人类需要担心的巨大危险,甚至比朝鲜的核武器还要可怕。

根据外媒报道,马斯克和谷歌负责全球应用人工智能的苏雷曼(Mustafa Suleyman)带领来自26国的116位人工智能专家联名上书,向联合国呼吁禁止使用致命的自主武器——杀人机器人。与完全受人类控制的机器人不同,自主武器是指能够在无人干预下独立搜索、识别并攻击目标的新式武器。

图片来自网络

不需要几十年,自主武器近在眼前

最近,联合国正在筹备关于武器使用的正式讨论,其中包括飞机、坦克和自动机枪。于是,以马斯克为首的这群创立了人工智能公司和掌握最前沿技术的专家团队抓准时机,及时向联合国递交了一封公开信,呼吁联合国阻止以机器人为工具、正在进行的军备竞赛。他们在信中提出,常规武器公约的审查会议认为,这样的军备竞赛正在威胁“火药和核武器”后的“第三次革命”。

“一旦研制成功,致命的自动化武器将会让武装冲突的规模比以往任何时候都大,其速度也会比人类所理解的快。”他们在信中写道,它们可能会成为恐怖分子的武器,独裁者和恐怖主义会把这些武器对准无辜的人。“我们已经没有太多时间了。一旦潘多拉的盒子被打开,就很难关闭。”

这些技术专家此前就警告称,人工智能技术已经达到了临界点,自主武器的应用将在可见的几年内而不需要几十年就能实现。鉴于人工智能可以被用在战场上以保护军队及个人的安全,专家团队担忧,完全自主的攻击性武器很可能也将降低战争开启的门槛,并引发更大规模的人员伤亡。

原定于周一开幕的人工智能国际联合会议(IJCAI)现已推迟到11月份召开。该会议受到全球人工智能和机器人领域专家的支持和关注,他们强烈建议对自主武器给予足够的重视并迫切展开行动,把“不道德的”致命自主武器系统添加进1983年生效的联合国特定常规武器公约(CCW)禁止使用的武器名单中。这一禁止名单已经包含了化学武器和故意的致盲激光武器。