怎么看军用人工智能

 

  对于人工智能,我一直持全面的否定态度,我认为人工智能是人类目前玩的最危险的那把火。早在马斯克、霍金、盖茨等人领衔的关于禁止研发军事用途人工智能的呼吁书公布之前很久,我就发表文章主张大国应该签订国际条约来限制、直至禁止人工智能的研发。

  石海明博士是军事理论的研究者,在通常的意义上,可以说他是我的学生,毕竟他是在我们上海交通大学科学史与科学文化研究院获得博士学位的;狭义说来,他是我的师侄。当年他的博士论文《科学、冷战与国家安全——美国外空政策变革背后的政治》出版,我为他写了序。现在他的《人工智能颠覆未来战争》付梓在即(人民出版社即将出版),而我又答应为他写序了。

  我身边朋友们好奇的是:你一直全面反对人工智能研发,现在海明和贾珍珍的书,专门讲人工智能将如何影响未来战争,这篇序看你怎么写?

  这确实是一个问题。我想了好久,最后发现我还是可以写这篇序,而且可以在这样的前提下来写:既不改变我一贯的观点,还能赞成海明他们的研究。因为我发现,这两者之间仍然是有共同点的。

  当年阿西莫夫著名的“机器人三定律”,第一定律就是“机器人不得伤害人类,也不得见人类受到伤害而袖手旁观”。这个第一定律意味着,我们人类不能把杀人的权力让渡给机器人。比如有一个罪犯被判了死刑,我们可以让机器人去对他执行枪决吗?不可以。因为机器人不得伤害人类,不管这个人类是一个罪犯还是一个圣人。而这实际上就从理论上排除了将机器人或人工智能应用于军事用途的一切合理性。

  如果研发军事用途的人工智能,那当然就是把杀人的权力交给人工智能。比如现在很热的军用无人机,即使是在人类下达命令之后让无人机执行攻击,也违背了第一定律,更不用说研发自主识别目标执行攻击的无人机了。

  所以军事用途的人工智能就是从根本上违背“机器人三定律”的。虽然搞人工智能的不少人表示愿意尊重这三个定律,但这毕竟不是法律,只是一个科幻小说家在他的小说里提出来的,如果研发者不遵守,别人也没办法,很多研发军事用途人工智能的人当然都没有遵守这三个定律。

  另外一个情况是,人工智能的边界至少在理论上是相当模糊的。比如我们口袋里的手机是不是人工智能?通过适当的定义,完全可以将手机视为人工智能。既然如此,那么现代战争中的通讯指挥系统,为何不能定义为人工智能?这样的人工智能不是早就在战争中应用了吗?反过来,对另一些武器,比如无人驾驶的坦克、无人机,你既可以说这是人工智能,也可以说这只是一种自动武器。到底算不算人工智能,理论上没有明确的界定。

  前些时候,埃隆·马斯克、史蒂芬·霍金、比尔·盖茨联合了很多名流,发表了一个公开的宣言,要求停止军事用途的人工智能研发。认为这有可能“唤出魔鬼”,产生比原子弹更可怕的武器。马斯克更明确表示“我们需要十分小心人工智能,它可能比核武器更危险”。一方面,军用人工智能直接操控武器或自身就成为武器,一旦失控后果难以设想;另一方面即使没有失控,研发出这类更新颖更高效的杀人武器,从根本上来说也绝非人类之福。媒体对上述宣言有过一些报道,但并未给予足够的重视。学者中也有一些人提出了类似观点,但这些都只是民间呼吁,还没有达到国家政策的层面。

  马斯克自己就是一个人工智能大力的支持者和使用者,他自己的工厂里大量使用了工业人工智能,但是他一面自己使用和研发人工智能,一面却不断警告说人工智能非常危险,这样做看上去难免有伪善之嫌,但是他提出警告毕竟也有好处。比如说,我肯定在马斯克他们的上述宣言之前早就发表文章提出过警告了,但人们会说你又不研究人工智能,你的警告我们用不着重视;但是马斯克提出警告,人们至少不能说他不研究人工智能吧?至少对他的警告有可能更重视一些吧?从这个意义上说,他的警告还是很有价值的,所以他这方面的警告我也都赞成。

  那么对于《人工智能颠覆未来战争》这本书,我会持什么态度呢?也许和我身边一些朋友的预想不同,我对此书持高度支持和赞赏的态度。

  这里我们有必要回忆关于原子弹的一些伦理和道德方面的思考。原子弹这种大规模杀伤武器的出现,从根本上来说当然是一种罪恶,但是人们为何普遍对美国的曼哈顿工程给出正面评价?原因很简单,因为一些效忠纳粹德国的物理学家已经在为希特勒研发原子弹了,如果纳粹德国先造出原子弹,“自由世界”很可能会万劫不复。所以美国抢先造出原子弹,并向法西斯日本投放了两颗,就被视为加速了法西斯阵营灭亡的正义之举。

  其实换一个角度来看,原子弹和一系列后续的核武器,也带来了某种积极的后果。广岛、长崎的实战投放,加上稍后几年美国在比基尼环礁的实战测试(投放原子弹摧毁一些大型军舰),人类对原子弹的巨大杀伤力已经没有疑问。命运的巧合是,“自由世界”的冷战对手,社会主义阵营的苏联很快也造出了原子弹。从那以后,原子弹再也没有用于实战,它变成了一种战略威慑武器。这种武器具有特殊性质——因为任何一方使用它都高概率地意味着双方同归于尽,以至于它实际上几乎不会真的被使用了。恰恰是原子弹的这种特殊性质,使得它可以为某些相对弱小但又不愿意屈服的国家带来某种保障——当年中国的“两弹一星”就是这方面的榜样。

  在本书中,作者从多个方面探讨了与军事用途有关的人工智能问题,包括一般意义上的理论问题、人工智能在作战应用方面的新进展、美俄等外军研发军用人工智能的新动向、科幻作品对军用人工智能的启示、军用人工智能的伦理困境等等。两位作者多年来在这方面已经有了相当的积累,本书在此基础上整理发展而成。本书所作的讨论,对于我们争抢军用人工智能制高点,相信会有多方面的启发和参考价值。

  展望未来,比较理想的局面,应该是各大国坐下来谈判,签署限制或禁止军用人工智能研发的国际协议。但谈判需要手中有筹码,只有当中国手中握有足够的实力筹码时,才有可能推动人工智能方面的国际裁军谈判。所以无论如何,我们抢占军用人工智能制高点刻不容缓。

江晓原,《中华读书报》

激賞明鏡 1
激賞明鏡 2
比特幣激賞明鏡

3KAXCTLxmWrMSjsP3TereGszxKeLavNtD2
激賞操作及常見問題排除
推薦電視頻道

留言