欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

人工智能有危险?NO,“人工愚蠢”才害死人!

程序员文章站 2022-04-24 20:03:52
去年10月,特斯拉CEO伊隆·马斯克(Elon Musk)曾表示,人工智能是“对人类生存最大的威胁”,而开发能思考的机器就像是“召唤恶魔”...

人工智能有危险?NO,“人工愚蠢”才害死人!

去年10月,特斯拉CEO伊隆·马斯克(Elon Musk)曾表示,人工智能是“对人类生存最大的威胁”,而开发能思考的机器就像是“召唤恶魔”。去年12月,著名物理学家史蒂芬·霍金(Stephen Hawking)指出,“全面的人工智能将意味着人类这一种族的灭亡”。今年,微软创始人比尔·盖茨(Bill Gates)也表示,他“对超级智能感到担忧”,而这样的超级智能只需几十年就会诞生。

不过,即使认为人类将由于“杀人机器人”而面临威胁,这样的问题也不太可能来自人工智能,而更有可能是由于“人工愚蠢”。人工智能和人工愚蠢之间的差异反映了我们看待计算机的方式。

关于人工智能,大部分人担心的一点在于,计算机会认为人类是错误的产物并杀死人类。对人类来说,这无疑非常糟糕,但对计算机来说可能是明智的决定。

但业内专家表示,真正令人担忧的是,计算机程序会在无缘由的情况下,迅速而过度地完成某项单一工作。例如,一个生产回形针的机器可能会失控,导致在一夜之间生产出大量无用的回形针。

换句话说,这里发生了非常愚蠢的错误,而错误影响范围很大。在关于人工智能导致世界末日的报道中,你可能会看到“终结者”机器人的说法,但实际上这仍停留在想象之中。

麻省理工学院物理学教授、未来生命研究所主席马克斯·泰格马克(Max Tegmark)表示:“你真正应该担心的是,一台计算机在某个非常狭隘的领域变得非常强大。”

今年6月底,德国一名工人遭到工厂生产线机器人的意外伤害而身亡。当时,泰格马克表示:“这表明,机器非常愚蠢,将人体当做了一块金属材料。”

未来生命研究所近期获得了马斯克的1000万美元资助,以探索如何避免自动化程序带来危害。不过包括马斯克、霍金和盖茨在内,许多人似乎都没有注意到真正的潜在威胁。

目前来看,没有任何证据表明,机器人工智能能产生意识,并出现杀死自己创造者的想法。

非盈利组织艾伦人工智能研究所负责人奥林·艾奇奥尼(Oren Etzioni)表示:“这种对世界末日的设想搞混了科学的边界,实际上是讨论关于思想和意识等哲学问题。如果有更多人学会软件开发,他们就会发现计算机其实只是很平常的工具。”

那么是什么原因导致了这样的混淆不清?一大原因在于计算机科学家的工作。艾奇奥尼表示:“‘人工智能’一词诞生于50年代,当时人们认为能思考的机器即将出现。我们目前沿用了这一说法。”

“人工智能”一词目前已被广泛应用。谷歌的人工智能项目主要由收购而来的DeepMind负责。这一领域的一家先行者名为Thinking Machines。而研究人员也在关注“深度学习”,这暗示了我们正在创造智能。

深度学习依靠了有层次性的逻辑能力,即神经网络。神经网络中的节点常常被比作人脑的神经元,但实际上两者之间的差别就像面包和太空船那么巨大。

包括DeepMind在内,机器学习领域的大部分研究都主要关注模式识别、行为建议,以及预测。这类似于人脑的能力。

人工智能是科技行业最引人关注的一个领域。亚马逊、Facebook和谷歌正在展开一场竞赛,而Uber和通用电气则将机器学习视为了未来。

但从本质上来看,机器学习就是自动化,而这也是长期以来机器的功能。人类在学习中可以变得更聪明,而机器的“学习”与人类不同。

DeepMind已开发出一款程序,能掌握简单的视频游戏,然而这一程序无法将一款游戏的经验应用至另一款。这一神经网络系统对图片的识别方式与人脑仍有很大差异,并且很容易被击败。

从这类愚蠢的机器行为发展至更广泛的与人类类似的行为被称作“迁移学习”。这一领域目前还停留在研究阶段。

加州大学伯克利分校计算机科学教授斯图亚特·拉塞尔(Stuart Russell)表示:“人工智能专家知道,一台能下象棋的计算机不会渴望去吃掉对方的某个棋子。”他也是未来生命研究所的成员,并且获得了马斯克的资助。他目前正试图通过数学方法,确保“愚蠢”的计算机程序不会与复杂的人类价值产生冲突。

他表示:“生产回形针的程序缺少的是作为背景的价值观。目前的误解在于,唯一的威胁在于机器可能出现意识。”