当前位置:经济频道首页 > 正文

美国防部副部长:没人类授命,人工智能不得自行消灭任何目标

2017-07-21 09:25:23    微信公众号“现代军事”  参与评论()人

文章说,在应用物理实验室举行的人工智能会议上,美国军方一致认为人工智能、机器人和人机协同将改变战争进行的方式,而美国国防部副部长鲍勃·沃克则承认,他开始深信人工智能还将改变战争的性质是一个很大的过失。文章如下:

沃克既是一名训练有素的美国海军陆战队军官,也是五角大楼的一位重量级的人工智能支持者。他说,战争的性质就是意志、担心、不确定性和可能性的冲突,因此人们必须自问,要是大量的战争行动都是在无人系统之间发生的话,如何能够逐渐消除担心。

本文图均为 微信公众号:现代军事 图

在经典的战争理论中,核心的论点就是人类容易出错。如果不为担心、愤怒和自尊所支配的机器开始在战争中自行决策的话,错综复杂的冲突计划会发生难以预计的改变。沃克说现在战争的不确定性正在变得不同于以往,他坚持认为计算机辅助决策能够帮助指挥官做出更为清晰的判断。战争的不确定性不会消失,虽然人们能够通过观看在红场的阅兵来推测俄罗斯新型坦克的能力,但是敌人的新型人工智能装置的真实情况只有在作战中才能够显现出来。他说,如果届时敌人的人工智能装置比美国的更好,情况就严重了。

将人工智能引入战场会产生前所未有的不确定性,对抗人工智能的交互行动更会形成越来越难以预计的反馈回路,即混沌理论的军事应用。沃克说,美国决没有足够的狭义的人工智能系统,在网络中与人互动。所谓“狭义的”人工智能系统是指相当于特殊目的的人类智能的项目,而“广义的”人工智能系统则是相当于全面的人类智能的项目,目前还只能在科幻小说中看到。

五角大楼所执行的谨慎的人工智能系统开发过程经常被嘲笑为创新的障碍,特别是其作战测试和评估严格要求智能机器可靠而且可重复地按照人的预计行事。沃克强调说,希望人工智能系统所遵守的一项关键限制就是没有人的明确命令决不能消灭任何目标。

沃克认为“广义的”人工智能系统中具有自行决策的武器,决不是人们所追求的。他说美国不会去设计自行决定打击某个目标的武器,不过这也并非意味着每次打击都必须由人去扣动扳机。敌人不会遵守美国给自己加上的限制,自然会给美国带来使得自己处于不利情况的问题。