当前位置:经济频道首页 > 经济要闻 > 正文

警惕机器人自主杀人!马斯克同26国专家联名发出警告(2)

2017-08-21 12:43:17    第一财经APP  参与评论()人

担忧人工智能不是杞人忧天

作为美国太空探索技术公司SpaceX和特斯拉电动汽车公司的CEO,马斯克一直是人工智能的担忧者。他反复提出要提前对人工智能进行约束和监管,认为这是人类最大的致命威胁,但多数人即使认同人工智能的破坏潜力将非常大,但觉得距离现在还很遥远。

Facebook(脸书网)创始人扎克伯格就公开反对过人工智能威胁论。他对人工智能的前景感到乐观,认为人工智能将在很多方面改善人类的生活质量,那些否定人工智能并试图营造世界末日论的人是消极的,也很不负责任。

不过,微软联合创始人比尔·盖茨也和马斯克一样对机器人存在担忧。他认为,在最近的几年里,机器人的确会对人类产生积极影响,但几十年后机器人的智能化将强大到让人担忧的水平。

澳大利亚悉尼新南威尔士大学人工智能教授沃尔什(Toby Walsh)表示:“几乎每一种技术都可以被用于好的和坏的事情上,人工智能也一样。它可以帮助人们解决很多当前急迫的社会问题:不公平和贫困,气候变化的挑战和正在进行的全球金融危机。然而,同样的技术也可以被用在自主武器上以引发工业化大战。我们需要现在就做出决定,到底要选择哪种未来。”

这并不是全球顶级的人工智能会议——IJCAI第一次讨论致命的自主武器系统。2年前,这个会议就发表了一封由数千名人工智能和机器人研究者的公开信,以推动联合国就人工智能技术展开正式的讨论。当时马斯克和科学家霍金也都在信上签下了名字。

2015年,英国政府以“国际人权法律已经对这一领域给出了足够多的条规”为由拒绝对致命自主武器颁布禁令。英国政府表示,英国没在研制致命的自主武器,而所有被英国军队使用的武器都将“在人类的监管和控制下”。

俄罗斯、美国和其他国家正在研制坦克机器人,这种坦克一旦研制成功,不是可以接受远程操控,就是可以完全自主、脱离人类控制。

此内容为第一财经原创。未经第一财经授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。第一财经将追究侵权者的法律责任。

如需获得授权请联系第一财经版权部:021-22002972或021-22002335;banquan@yicai.com。