当前位置:经济频道首页 > 经济要闻 > 正文

警惕机器人自主杀人!马斯克同26国专家联名发出警告

2017-08-21 12:43:17    第一财经APP  参与评论()人

对美国技术狂人、特斯拉CEO马斯克(Elon Musk)来说,人工智能的崛起是人类需要担心的巨大危险,甚至比朝鲜的核武器还要可怕。

根据外媒报道,马斯克和谷歌负责全球应用人工智能的苏雷曼(Mustafa Suleyman)带领来自26国的116位人工智能专家联名上书,向联合国呼吁禁止使用致命的自主武器——杀人机器人。与完全受人类控制的机器人不同,自主武器是指能够在无人干预下独立搜索、识别并攻击目标的新式武器。

图片来自网络

不需要几十年,自主武器近在眼前

最近,联合国正在筹备关于武器使用的正式讨论,其中包括飞机、坦克和自动机枪。于是,以马斯克为首的这群创立了人工智能公司和掌握最前沿技术的专家团队抓准时机,及时向联合国递交了一封公开信,呼吁联合国阻止以机器人为工具、正在进行的军备竞赛。他们在信中提出,常规武器公约的审查会议认为,这样的军备竞赛正在威胁“火药和核武器”后的“第三次革命”。

“一旦研制成功,致命的自动化武器将会让武装冲突的规模比以往任何时候都大,其速度也会比人类所理解的快。”他们在信中写道,它们可能会成为恐怖分子的武器,独裁者和恐怖主义会把这些武器对准无辜的人。“我们已经没有太多时间了。一旦潘多拉的盒子被打开,就很难关闭。”

这些技术专家此前就警告称,人工智能技术已经达到了临界点,自主武器的应用将在可见的几年内而不需要几十年就能实现。鉴于人工智能可以被用在战场上以保护军队及个人的安全,专家团队担忧,完全自主的攻击性武器很可能也将降低战争开启的门槛,并引发更大规模的人员伤亡。

原定于周一开幕的人工智能国际联合会议(IJCAI)现已推迟到11月份召开。该会议受到全球人工智能和机器人领域专家的支持和关注,他们强烈建议对自主武器给予足够的重视并迫切展开行动,把“不道德的”致命自主武器系统添加进1983年生效的联合国特定常规武器公约(CCW)禁止使用的武器名单中。这一禁止名单已经包含了化学武器和故意的致盲激光武器。

担忧人工智能不是杞人忧天

作为美国太空探索技术公司SpaceX和特斯拉电动汽车公司的CEO,马斯克一直是人工智能的担忧者。他反复提出要提前对人工智能进行约束和监管,认为这是人类最大的致命威胁,但多数人即使认同人工智能的破坏潜力将非常大,但觉得距离现在还很遥远。

Facebook(脸书网)创始人扎克伯格就公开反对过人工智能威胁论。他对人工智能的前景感到乐观,认为人工智能将在很多方面改善人类的生活质量,那些否定人工智能并试图营造世界末日论的人是消极的,也很不负责任。

不过,微软联合创始人比尔·盖茨也和马斯克一样对机器人存在担忧。他认为,在最近的几年里,机器人的确会对人类产生积极影响,但几十年后机器人的智能化将强大到让人担忧的水平。

澳大利亚悉尼新南威尔士大学人工智能教授沃尔什(Toby Walsh)表示:“几乎每一种技术都可以被用于好的和坏的事情上,人工智能也一样。它可以帮助人们解决很多当前急迫的社会问题:不公平和贫困,气候变化的挑战和正在进行的全球金融危机。然而,同样的技术也可以被用在自主武器上以引发工业化大战。我们需要现在就做出决定,到底要选择哪种未来。”

这并不是全球顶级的人工智能会议——IJCAI第一次讨论致命的自主武器系统。2年前,这个会议就发表了一封由数千名人工智能和机器人研究者的公开信,以推动联合国就人工智能技术展开正式的讨论。当时马斯克和科学家霍金也都在信上签下了名字。

2015年,英国政府以“国际人权法律已经对这一领域给出了足够多的条规”为由拒绝对致命自主武器颁布禁令。英国政府表示,英国没在研制致命的自主武器,而所有被英国军队使用的武器都将“在人类的监管和控制下”。

俄罗斯、美国和其他国家正在研制坦克机器人,这种坦克一旦研制成功,不是可以接受远程操控,就是可以完全自主、脱离人类控制。

此内容为第一财经原创。未经第一财经授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。第一财经将追究侵权者的法律责任。

如需获得授权请联系第一财经版权部:021-22002972或021-22002335;banquan@yicai.com。

编辑:缪琦