美国防部副部长:AI不得没授命自行消灭任何目标
美国Breaking Defense网站发表了一篇有关美国国防部副部长鲍勃·沃克论及人工智能如何影响战争的文章。
文章说,在应用物理实验室举行的人工智能会议上,美国军方一致认为人工智能、机器人和人机协同将改变战争进行的方式,而美国国防部副部长鲍勃·沃克则承认,他开始深信人工智能还将改变战争的性质是一个很大的过失。文章如下:
沃克既是一名训练有素的美国海军陆战队军官,也是五角大楼的一位重量级的人工智能支持者。他说,战争的性质就是意志、担心、不确定性和可能性的冲突,因此人们必须自问,要是大量的战争行动都是在无人系统之间发生的话,如何能够逐渐消除担心。
本文图均为 微信公众号:现代军事 图
在经典的战争理论中,核心的论点就是人类容易出错。如果不为担心、愤怒和自尊所支配的机器开始在战争中自行决策的话,错综复杂的冲突计划会发生难以预计的改变。沃克说现在战争的不确定性正在变得不同于以往,他坚持认为计算机辅助决策能够帮助指挥官做出更为清晰的判断。战争的不确定性不会消失,虽然人们能够通过观看在红场的阅兵来推测俄罗斯新型坦克的能力,但是敌人的新型人工智能装置的真实情况只有在作战中才能够显现出来。他说,如果届时敌人的人工智能装置比美国的更好,情况就严重了。
将人工智能引入战场会产生前所未有的不确定性,对抗人工智能的交互行动更会形成越来越难以预计的反馈回路,即混沌理论的军事应用。沃克说,美国决没有足够的狭义的人工智能系统,在网络中与人互动。所谓“狭义的”人工智能系统是指相当于特殊目的的人类智能的项目,而“广义的”人工智能系统则是相当于全面的人类智能的项目,目前还只能在科幻小说中看到。
五角大楼所执行的谨慎的人工智能系统开发过程经常被嘲笑为创新的障碍,特别是其作战测试和评估严格要求智能机器可靠而且可重复地按照人的预计行事。沃克强调说,希望人工智能系统所遵守的一项关键限制就是没有人的明确命令决不能消灭任何目标。
沃克认为“广义的”人工智能系统中具有自行决策的武器,决不是人们所追求的。他说美国不会去设计自行决定打击某个目标的武器,不过这也并非意味着每次打击都必须由人去扣动扳机。敌人不会遵守美国给自己加上的限制,自然会给美国带来使得自己处于不利情况的问题。
对于美国不开发“广义的”人工智能系统的限制,一些业内人士提出了异议。例如,汉森机器人公司的CEO戴维·汉森认为,如果一个国家限制自己,不去开发“广义的”人工智能系统的话,就会激励敌人开发更为复杂的超出控制的自适应机器,以获得压倒性优势。
人工智能与其它技术相比,有可能成为更加强大也更加赚钱的技术行业,因为它能够给制造商带来惊喜,能够提供他们从未想到的问题解决方法。不过,这也使得人工智能技术更加危险,尤其是超出控制的人工智能系统可能会造成意想不到的严重问题。
牛津大学的学者安德斯·桑德伯格认为,对于自主系统的控制非常困难,其原因并非它的任性和渴望*,而是因为人们所创造的是复杂的自适应技术系统。事实上,当前流行的创造人工智能系统的最为有效方法不是一行又一行地编写智能程序,而是创造一台“学习机器”,同时给它提供大量的数据资料,使它能够像一个小孩一样通过反复体验和尝试去学习。可是,让这样的系统正确理解如何学习和如何做出决定是非常困难的,更谈不上预计它们未来的行动。
对于美国的敌人力图在人工智能领域获得压倒性优势的问题,沃克相信美国的创造性和道德观念会取得优势,“和美国人一起工作的美国人工智能机器会战胜那些压制人民创造潜能的极权主义者所设计的人工智能系统”。不过他承认并不能保证如此,说这是一场竞赛,必须等待,看竞赛如何开展,必须非常谨慎。