当前位置:经济频道首页 > 经济要闻 > 正文

江晓原:人工智能是人类正在玩的最危险的火(2)

2017-08-31 16:18:02      参与评论()人

二、中期威胁:人工智能的失控

如今机器人和互联网结合,以前的个体物理极限将不再存在。简单的来说,过去可以拔掉电源终止机器人的工作,而对于和互联网结合的人工智能来说,根本不能通过“拔掉电源”将其控制。

现在有些业界专家还在说,可以拔掉机器人的电源。实际上人工智能跟互联网结合以后,它完全不需要什么形态,以前没有互联网的时候,单个的人工智能有局限,哪怕全部都是芯片,也有存储、运算方面的极限。但是现在跟互联网一结合,所有的伺服机构都不再需要了,只要在网络上下单、订购各种服务,就可以完成对社会的破坏。所以到那个时候根本无法拔电源,因为它不存在一个电源可以拔掉。

人工智能的专家称要为人工智建立一套道德体系,笔者对此持强烈的怀疑态度,人类尚未能保证教育好自己的子孙后代,又何来信心让将比人类更聪明的人工智能避免误入歧途?

在这个问题上,专家们经常说,我们在机器人的芯片里写进什么话,让它不学坏。关于这个问题最简单的疑问就是,你都不能保证自己的孩子不学坏,更何况人工智能呢?到目前为止,没有人能给出一个办法让人相信他真的能防止人工智能的反叛。

三、远期威胁:人工智能的终极威胁

人们经常提到阿西莫夫一本小说中的机器人的三定律,却很少知道他还有另外一个重要的观点——所有依赖人工智能的文明都必定会衰亡。未来能够长久发展的文明都是立法严禁研发人工智能的。

为什么呢?若假设人工智能对人类是完全忠诚的,人类的一切活动可通过支配它而完成。一旦有了这样的人工智能,人类将失去人生意义,成为行尸走肉,在体能和智能方面将全面快速衰落,而且由于人类将一切事情交由人工智能完成,这也是将这个世界的管理权让渡给了人工智能。随着它们的进化,它们终将认识到人类是这个世界的负担,最后理性的结果必将是清除已成行尸走肉的人类。这样对人类来说,实际上就是自掘坟墓。

这就是人工智能的终极威胁。

四、终极问题:我们究竟为什么要发展人工智能?

很多人赞成发展人工智能,只是因为它是科学技术,而科学技术它一直被认为是一个尽善尽美的东西,所以只要一说发展科学技术就是天然正确的。如果反对某种技术研发,一定说是阻碍科学发展,而阻碍科学发展的在很多人脑子里认为天然的就是一个罪状。实际到了今天,已经不能再简单地将“阻碍科学发展”视为罪状了,至少应该认识到有一些科学技术是不应该发展的,是有危害的。