当前位置:经济频道首页 > 国内经济新闻 > 正文

卫报评马斯克呼吁禁止机器人参战:无异于劝说饮料商不榨橙汁(2)

2017-08-24 17:24:25      参与评论()人

无论如何,道德问题很难有一刀切的原则。 历史学家Yuval Noah Harari指出,自动驾驶汽车需要有一些原则来规定它们在面临不可避免、并且可能导致死亡的事故时应该怎样采取行动:机器应该试图保护什么?Harari 说,也许我们会被提供两种模式:利己主义(优先保护驾驶员)和利他主义(优先保护其他人)。

在2012年人权观察组织一份有关杀人机器人(killer robots)的报告中,包含一些科幻小说般的预想。报告写道:“要区分恐惧的平民和具有威胁性的敌人,需要有一名士兵去了解人类行动背后的意图,这是机器人做不到的事情。”报告还写道:“机器人不会受到人类情感和人类同情心的约束,而这些是避免滥杀平民的重要制约因素。”但第一个论断不够令人信服——机器人可以使用生物识别技术,其判断力或许比用肉眼判断的战战兢兢的士兵更准确。对于第二个,或许某些时候是正确的。但其他时候呢,人类在战争中会强奸和屠杀平民。

我不是要反对这份报告中对自主机器人士兵的恐惧,因为我也是这样。相反,这使我们回到关键的问题,不是关乎技术,而是关乎战争。

我们对战争伦理问题的敏感是非常任意的。人权观察组织的报告说:“完全自主的武器的使用提出了有关责任的问题,这将削弱另一个已确立的保护平民的工具。”这是一个公平的观点,但不可能放到任何一个已达成一致的伦理框架内,核武器在国际上就是合法的。此外,无人机战争,士兵强化技术和法律之间是一个连续统一体,无法分解为“人和机器”。

自动化军事技术的问题与战争本身性质的不断变化密切相关,在恐怖主义和叛乱状态,战争并没有开始和结束的时间点,也没有战场或军队:美国战略分析师 Anthony Cordesman认为:“现代战争的教训之一是战争不再被称为战争。”不管我们怎么处理,都不会再有像诺曼底登陆那样的。

战争一直在使用最先进的技术;“杀手机器人”也同样是。潘多拉的魔盒在钢铁冶炼被发明时就已打开,如果不是更早的话(而且打开魔盒的从来不是女性)。你可以确定的是,肯定有人从中获利。

无论如何,让我们试着遏制住“化玉帛为干戈”的最糟糕的冲动,但劝说国际武器贸易不要制造杀人机器人,无异于劝说软饮料制造商不要生产橙汁。

(本文首发于英国《卫报》,原作者Philip Ball,由微信公众号“新智元”翻译,澎湃新闻获授权后转发。原标题:卫报评马斯克等116名AI专家呼吁禁止“杀手机器人”)