欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

美媒:人类担心AI统治世界?10年内没啥可怕的

程序员文章站 2022-05-11 13:18:08
据科学美国人杂志报道,伊隆·马斯克(Elon Musk)最新宣布,旗下特斯拉电动汽车公司制造的所有汽车都将支持全自动驾驶功能。但这需要让人相信,特斯拉的AI(人工智能)技术能够确保所有汽...

美媒:人类担心AI统治世界?10年内没啥可怕的

据科学美国人杂志报道,伊隆·马斯克(Elon Musk)最新宣布,旗下特斯拉电动汽车公司制造的所有汽车都将支持全自动驾驶功能。但这需要让人相信,特斯拉的AI(人工智能)技术能够确保所有汽车都能实时读取数据,并对不同的情况做出反应。

现在,AI的确可以执行许多令人感到惊奇的事情,比如上周AlphaGo电脑程序的开发者报告称,他们的软件已经学会了在伦敦复杂的地铁系统中导航,就像个“本地通”。甚至就连白宫也紧跟潮流,于数日前发布报告,宣称将帮助美国应对未来,届时机器可能会像人类那样思考。

可是,已经研究AI数十年,并尝试解决AI基本问题的计算机科学家奥伦·埃齐奥尼(Oren Etzioni)认为,在人类担心机器将接管世界之前,机器的进化之路依然十分漫长。埃齐奥尼如今是艾伦人工智能研究所(AI2)的首席执行官,这个组织是微软联合创始人保罗·艾伦(Paul Allen)2014年创建的,重点是研究AI的潜在益处。艾伦认为,好莱坞甚至其他研究人员都将AI描述得过于邪恶,甚至可能威胁人类生存。

AI2启动的AI项目并不十分华丽,比如基于AI、支持学术研究的搜索引擎Semantic Scholars。但他们却专注于解决AI领域的难题,比如推理等。《科学美国人》最近在纽约AI大会上采访了埃齐奥尼,他担心当前公司过多吹嘘AI的现有能力,特别是机器学习技术(又称深度学习)。这种技术可运行大量数据集,通过网络模拟人类大脑的神经网络,以便教授计算机自己解决具体问题,比如识别模式或识别照片中的特定目标等。

埃齐奥尼还反思为何10岁孩子都比谷歌旗下AI公司DeepMind的AlphaGo更加聪明,以及最终为何需要开发出AI“监护人”程序以便确保其他AI程序不会变得更危险。以下就是采访摘要:

问:在寻找研发AI技术的最好方式时,AI研究人员之间是否存在分歧?

埃齐奥尼:有些人已经看到了一点儿未来。我们在许多AI领域都取得了巨大进展,比如语音识别、无人驾驶汽车以及AlphaGo等。所有这些都是值得称道的技术成就。但是如何解释它们呢?深度学习显然是非常有价值的技术,但我们在研发AI过程中还有许多问题有待解决,比如推理(即机器人可理解而仅仅限于计算2+2=4)、获得背景知识(机器能用于创造情境)等。自然语言理解是另一个问题。即使我们开发出AlphaGo,但我们依然没有程序能够解读和充分理解一个段落甚至简单的句子。

问:有人认为,深度学习是AI领域最好的技术。深度学习到底有什么作用?

埃齐奥尼:当你有大量数据需要处理时,而计算机又知道它们代表的意义,那么你将具备强大的计算能力,你可以尝试找出数据中隐藏的模式,深度学习在这个领域堪称无敌。此外,AlphaGo可以处理3000万个与位置有关的数据,这些位置可教授AI程序在不同的情况下采取正确行动。还有其他例证,比如放射图像,它可以显示是否存在肿瘤,而深度学习程序可以调整颜色,确定这份图像是否是之前看过的。深度学习还能够执行很任务,这是真正的前沿技术。

问:那么深度学习面临哪些挑战?

埃齐奥尼:问题是系统有了智慧还不行,还必须有更多数据可被用于训练它。以学生的标准化考试为例,比如SAT或纽约高考数据。以前,为了获得高分,智能程序可通过3000万份被打上成功或不成功标记的考卷进行学习,而新的AI程序需要更复杂、更多互动的学习过程。AI还可通过设备、对话或读书学习。尽管深度学习有如此明显的优势,但10岁孩子也能做到这些,比如选择一本书、读一个章节、回答与其相关的问题等。

问:为何AI能够通过标准考试意味着其取得巨大进展?

埃齐奥尼:实际上,我们已经在AI2启动了这样的研究项目。去年,我们宣布悬赏5万美元,鼓励人们开发可通过8年级标准科学测试的AI软件。来自全世界的780多个团队耗费数月时间,但最终没有人的分数超过60分。这为我们提供了AI现状的现实、定量评估。

问:如何才能让*AI系统正确回答问题?

埃齐奥尼:通常情况下,语言中都隐藏着各种线索。最成功的系统可以从科学文本和其他公共资源中收集信息,然后利用调节信息检索技术为每个多选问题确定最佳答案。举例来说,什么是最好的电导体:塑料勺、木叉还是铁蝙蝠?AI系统非常善于运用公式,可以在大量常见的文件中检测电、铁或导电之间的关系,可以很轻松地给出答案。为此,有时候AI系统可以采取快捷方式,非常迅速地给出答案。之所以没有系统获得及格分数,我只能说这些系统都使用统计学进行猜测,而非仔细推理。

问:AlphaGo背后的DeepMind团队现在已经开发出新的AI程序,通过使用外部存储系统超越深度学习。他们的工作对创造更像人的AI有何影响?

埃齐奥尼:在移动深度神经网络领域,DeepMind依然是领跑者。这种特别贡献非常重要,但在推理方面却不算太大突破。现有的系统可以很轻松地完成类似任务,但这里涉及到神经网络如何通过例证学习执行任务的问题。总体来说,DeepMind迈出了一大步,但对于人类来说依然是一小步。

问:有人将深度学习、机器视觉和记忆等技术结合起来,以开发更完整的AI吗?

埃齐奥尼:这是个非常有吸引力的创意,实际上已经有许多类似研究。我在华盛顿大学担任教授时,就曾基于这个想法,利用互联网充当AI系统的数据库。我们建立了名为信息公开提取的技术,它可以为50亿个网页做索引,并从中提取语句,试图将它们变成机器可操作的知识。这台机器拥有超自然的能力,可以快速吸收这些网页和所有句子,问题是那些文本或图片上的句子很难吸收。人类大脑拥有不可思议的能力,计算机科学家们至今还未破解。这种能力可以映射出推理等反应。但是迄今为止,我们还么有找到机器能像人脑那样工作的机制。

问:你曾提及,要想达到人类水平,AI的研发至少还需要25年时间。你所谓的人类水平AI指什么,为何给出这样的时间框架?

埃齐奥尼:人类水平AI能够真正地理解自然语言、拥有人类智慧的广度、能够玩PokemonGo、走过街道等,这种多样性是人类智慧的标志,而我们今天能做的就是研发“狭隘的学者”,以便其能在某些方面表现更突出。至于25年的时间框架,我曾询问人工智能发展协会的朋友:计算机系统何时能在广义上变得像人类那样聪明?没人认为10年内能够实现这种假设,67%的人认为至少要到25年之后。25%的人认为永远无法实现。他们错了吗?你会选择相信谁,把握AI脉搏的人还是好莱坞?

问:为何如此多令人尊重的科学家和工程师警告称,AI可能灭亡人类?

埃齐奥尼:对于我来说,很难推测史蒂夫·霍金(Stephen Hawking) 或马斯克警告AI威胁的动机。我猜,谈论黑洞可能是非常无聊的,因为这是个缓慢进化的主题。但有一件事我要说,当他们谈论AI变得邪恶或引发潜在灾难性后果时,他们总会插入限定词,比如“最终”或“可能”。我同意这样的观点,如果我们谈论1000年后或无限未来,AI很可能导致人类灭绝。但我认为,这种长期讨论不该分散我们的注意力,我们应该更关注现实问题,比如AI与就业、AI与武器系统等。

问:鉴于AI存在的缺点,我们应该担心汽车制造商对无人驾驶汽车与日俱增的兴趣吗?

埃齐奥尼:我不是那些没有方向盘或刹车板的无人驾驶汽车的忠诚粉丝。鉴于我对计算机视觉和AI的了解,我对无人驾驶汽车感觉十分不舒服。但我是综合系统的支持者,比如当你在车上打盹时,AI能帮你刹车。人类司机和自动系统相结合可能比单纯的人类司机或AI驾车更安全。这很复杂,将新技术融入到人类日常工作与生活中同样不容易。但我不确信这种解决方案是否能有效。

问:谷歌、Facebook以及其他大科技公司近来联合推出了“人工智能造福人类和社会合作组织”,为AI研究设定道德和社会规范。对此你有何看法?

埃齐奥尼:世界上领先的科技公司联合起来思考这些事情是好事,我认为他们这样做是回应人们的担忧,即AI是否会接管世界。许多恐惧完全被夸大了。即使我们有了无人驾驶汽车,也不会立即造成破坏性影响。马斯科等人谈及的AI对人类生存威胁至少是数十年乃至数百年之后的事情。可是,目前有许多非常现实的挑战:自动化、数字化技术以及AI都在影响就业,无论是机器人还是其他技术,这非常令人担忧。无人驾驶汽车和卡车会大幅改善安全,但他们也会对依赖驾驶谋生的大量工人造成影响。这个新组织谈论的其他事情也存在偏见。如果AI技术被用于处理贷款或信用卡申请,它们能否法律或道德规范吗?

问:你认为如何能确保AI遵守法律和道德规范?

埃齐奥尼:如果你是银行,利用软件程序处理贷款,你将无法藏身其后。一口咬定计算机做错了事不是借口,计算机程序可能参与了歧视行为,那是因为计算机系统需要使用许多变量和统计,以便寻找与其他变量有关的联系。如果它使用了影响决定的替代变量,那真会成为问题,对于人类来说也很难发现和追踪。为此,我们提议研发AI“监护人”,以监测和分析基于AI开发的贷款处理程序的行为,确保其遵守法律和道德规范。

问:AI“监护人”已经存在吗?

埃齐奥尼:我们已经发出呼吁,并开始研发这些程序。我认为,很快就会出现类似程序,其愿景非常被看好。我们希望AI“监护人”的创意能够应对《终结者》等好莱坞电影中对AI的误解,即技术变得邪恶,并成为庞大的垄断力量。(小小)