联合国警告:杀人机器人或被*利用
随着人工智能技术的飞速发展,全自动化武器(杀人机器人)也将很快从科幻作品中走进现实。
世界多国专家于今年初齐聚日内瓦,专门研讨“致命性全自动化武器系统”问题。图为联合国驻日内瓦办事处总干事穆勒。
也有一些人辩称,在战场上使用机器人是利用它们来挽救生命。
新浪科技讯 北京时间7月12日消息,据国外媒体报道,今年初,世界多国专家齐聚日内瓦研讨“致命性全自动化武器系统”问题,并一致认为应尽早严控此类机器人的发展与利用。会后,联合国发表最新报告警告称,*有可能希望建立一支机器人部队,机器人武器一旦落入*之手,后果将不堪设想。
随着科技的进步,尤其是机器人技术的飞速发展,被预先设置特定程序的机器人将拥有瞄准目标射击的能力,在完全无人控制的情况下坦克也将具备主动寻找目标并自动射击的能力。所有这些并不是凭空想像的科幻,而是一种现实,而且机器人的这种能力可能即将于数年内走进现实。
因此,世界多国专家于今年初齐聚日内瓦,专门研讨“致命性全自动化武器系统”问题。专家们一致认为,有多种自动化武器将拥有自动实施攻击的能力。这次会议持续一周时间,会后联合国发表最新报告警告称,此类杀人机器人有落入*之手的危险性,而且*肯定难以抵挡住这种新型武器的诱惑。
联合国报告认为,“虽然在最初阶段,这些全自动化武器系统可能只有科技发达国家才会拥有,但是也极有可能很快扩散。此外,*没有任何遵守国际规范的动机,这也进一步增加了全球或地区不稳定性。现在有许多武器系统可以实施自动攻击。”在这种情况下,这些致命性武器系统可以成倍地提升武力和攻击力。因此,对这些武器系统进行人为干涉和严格控制是非常有必要的。
此前,也有一份相关报告呼吁,在科技飞速发展的今天,人类更应该保持对所有武器系统的控制。报告认为,在战斗中武器系统的一些关键功能必须要靠人来控制,包括目标的选择,从而才可以尽最大可能挽救生命,并保证战斗人员遵守国际法。“*观察组织”武器部高级研究专员鲍尼-多切蒂认为,“长期以来,机器人一直充当战争的工具,但都是人类在控制和使用它们。现在,一个真正的威胁是,人类放松了这种控制,并将生杀大权赋予了机器人。”不过,也有一些人辩称,在战场上使用机器人是利用它们来挽救生命。
去年,来自全球各国1000多位科学家和机器人专家发表公开信,警告称这种致命性全自动化武器将于数年内成为现实,而不是几十年后。这些科学家和专家包括世界著名物理学家史蒂芬-霍金、特斯拉公司CEO埃隆-马斯克和苹果联合创始人斯蒂芬-沃兹尼克等。在公开信中,他们声称 ,如果任何军事大国或组织致力于研发全自动化武器,那么全球性武器军备竞赛将不可避免。如果任由这种趋势的发展,全自动化武器将可能成为明天的AK-47。
一直以来,霍金教授都坚持自己的反对态度。“我认为人工智能的进步并不一定是有利的。机器人一旦到了能够自我进化的阶段,我们将无法预测它们的目标中是否包括我们自己。人工智能的进化速度有可能会超越人类。”据总部位于英国伦敦的“禁止杀人机器人运动”组织介绍,美国、中国、以色列、韩国、俄罗斯和英国等国家仍在致力于此类系统的研发,希望能够进一步提高武器的自动化作战能力。
不过,谷歌董事长埃里克-施密特在本周表达了自己的观点。他认为,所有人都“不应该对人工智能有恐慌心理”。施密特表示,“科学史表明,任何技术在最终改善人类生活之前,最初常常会受到质疑,并成为恐惧的对象。”虽然“世界末日”的假想也是值得考虑的情形,但是人工智能的发展的最理想方向是帮助人类解决问题。“谷歌和其它许多公司也一起在致力于人工智能安全性的研究,这样才能保证人类在必要时可以暂停人工智能系统。”(彬彬)
上一篇: PowerShell中的强类型数组介绍