雷·科兹威尔:抓紧制定政策法规让人工智能变得更好
发明家兼作家雷·科兹威尔(Ray Kurzweil)最近在谷歌与Gmail团队合作,就自动回复电子邮件进行研究。他最近在美国外交关系委员会( Council on Foreign Relations)与《连线》杂志主编尼古拉斯·汤普森进行了交谈。以下是经过编辑的对话记录。
【尼古拉斯·汤普森】:我们的谈话就从解释加速回报定律开始,这是支撑你写作和工作的基本思想之一。
【雷·科兹威尔】:在人类基因组计划进行到一半的时候,1%的基因组在7年后才被收集起来。所以主流评论家说,“我告诉过你,这行不通。你花了7年才达到1%,那一共需要700年的时间。我当时的反应是:“哇,我们完成了1%?那我们快完成了。”因为1%只是100%的7倍。它每年都在翻倍。的确,这种情况还在继续。7年后,这个项目完成了。自从基因组计划结束后,这种情况一直持续下去。第一个基因组的成本是十亿美元,而现在我们已经降到了1,000美元。
我要提一下加速回报定律的一个含义,因为它有很多连锁反应。它确实是我们所看到的这场令人瞩目的数字革命背后的原因,信息技术的通货紧缩率高达50%。因此,我可以像一年前那样,获得同样的计算、通信、基因测序和大脑数据,而一年前的价格只有今天的一半。这就是为什么你今天可以用两年前价格的一半买一部iPhone或一部安卓手机,而手机性能却比以前优秀两倍。改进后的性价比一部分表现在价格上,另一部分表现在手机性能上。因此,当一个非洲女孩以75美元的价格购买一部智能手机时,它就相当于75美元的经济活动,尽管这一数字在1960年前后约为一万亿美元,在1980年大约为十亿美元。它有数百万美元的免费信息应用,其中一个是百科全书,远比我十几岁时攒钱买的要好得多。所有这些在经济活动中都是零,因为它们都是免费的。所以我们真的不计算这些产品的价值。
所有这些都将改变:我们将用3-D打印机打印出衣服。目前我们处于某种3-D打印的炒作阶段。但在本世纪20年代初,我们将能够打印出服装。届时会有很多很酷的开源设计,你可以免费下载。我们仍拥有时尚产业,就像我们仍然拥有音乐、电影和图书行业一样,与免费、开源的产品共存,这些产品都是一流的产品和专有产品。我们可以用垂直农业生产出非常便宜的食物:用水培来种植水果和蔬菜,在体外克隆肌肉组织。第一个以这种方式生产的汉堡包已经被购买了。它很贵,售价几十万美元,但是很不错。所有这些不同的资源都将成为信息技术。最近,用亚洲的3-D打印机出来的乐高风格的小模块,几天后就拼建成了一栋三层楼的办公大楼。这将是本世纪20年代建筑的本质。3-D打印机将打印出我们需要的实物。
【尼古拉斯·汤普森】:让我们来谈谈智能,就像我口袋里的手机一样。它数学比我好,下棋比我厉害。它在很多事情上比我都做的好。什么时候它能比我更擅长与人交谈?什么时候会代替我来采访你?
【雷·科兹威尔】:我们的确拥有可以进行对话的技术。我的团队在谷歌创造了智能回复。所以我们正在写数百万封电子邮件。它必须理解所要回复的电子邮件的含义,尽管提出的建议很简短。但你的问题是一个类似于图灵测试的问题,它就相当于图灵测试。我相信,图灵测试是对人类智力全部范围的有效测试。你需要完全的人类智能才能通过一个有效的图灵测试。没有任何单纯的自然语言处理技巧可以做到这一点。如果人类法官无法分辨出其中的区别,那么我们认为人工智能是人类智慧的一部分,而这正是你所要问的。这是我的一个关键预测。我一直在说2029年。1989年,在《智能机器时代》(The Age of Intelligent Machines)一书中,我设定的界限是在20世纪20年代初到20世纪30年代末之间,在1999年的《精神机器时代》(The Age of Spiritual Machines)一书中,我说的是2029年。斯坦福大学的人工智能部觉得这令人生畏,因此他们召开了一次会议,当时人工智能专家的共识是这需要数百年的时间。25%的人认为这永远不会发生。我的观点与人工智能专家的共同观点或中间观点越来越接近,但这并不是因为我一直在改变我的观点。
2006年,达特茅斯召开了一个名为“人工智能@50”的会议。当时的共识是50年,那时我说的是23年。我们刚刚在阿西洛玛举办了一个人工智能伦理会议,当时的共识是在20到30年之间,而那会我说是13年。我还是比较乐观,但并没有那么乐观,越来越多的人认为我太保守了。
我没有提到加速回报定律的一个关键问题是:硬件不仅会呈指数级增长,软件也同样如此。我感觉越来越自信,我认为人工智能群体正越来越有信心,相信我们离这一里程碑不远了。
我们将与人工智能技术结合,让我们变得更聪明。它已经做到了。这些设备都是大脑扩展器,人们也会这么想,这是一种新事物。就在几年前,人们还没有把他们的智能手机看做是大脑扩展器。按照定义,它们会进入我们的身体和大脑,但我认为这是一个武断的区分。虽然它们在我们的身体和大脑之外,但它们已经是大脑的延伸,它们会让我们变得更聪明、更有趣。
【尼古拉斯·汤普森】:请解释一下政策制定者的框架,他们应该如何看待这种加速技术、他们应该做以及他们不应该做的事情。
【雷·科兹威尔】:人们对人工智能非常关注,如何保证技术的安全,这是一种两极分化的讨论,就像现在很多讨论一样。实际上,我在很长一段时间里都在谈论承诺和危险。技术永远都是一把双刃剑。火使我们暖和,为我们烹饪食物的同时,也能烧毁我们的房子。这些技术比火更加强大。我认为我们应该经历三个阶段,至少我是这么认为的。首先是为能有机会解决一直以来的难题而感到高兴:比如贫穷、疾病等等。然后要警告这些技术可能具有破坏性,甚至会带来生存风险。最后,我认为我们需要指出的是,我们必须意识到,除了我们已经取得的进步,我们在道义上必须持续推动这些技术的发展。这是一个完全不同的问题,人们认为情况正在变得更糟,但实际上情况正在变得更好,仍然有很多的人类苦难需要去解决。只有人工智能领域取得的持续发展,才能使我们继续克服贫困、疾病和环境退化,但同时我们也将面临危险。
这是一个很好的框架。四十年前,有远见卓识的人看到了生物技术的前景和风险,从根本上改变了生物学,让生物学在正确的道路上获得了长足发展。因此,他们在阿西洛玛的会议中心举办了一场“阿西洛玛会议”,并提出了道德准则和策略,即如何保证这些技术的安全。现在已经是四十年后了。我们正受到生物技术的临床影响。今天是涓涓细流,未来十年将是一场洪水猛兽。到目前为止,因滥用生物技术而受到伤害的人数为零。这是一个很好的学习模型。
我们刚刚举行了第一届关于人工智能伦理的阿西洛玛会议。这些伦理准则中有很多,特别是在生物技术领域,已经写入了法律。所以我认为这就是我们的目标。最极端的是,“让我们禁止这项技术”,或者“让我们慢下脚步”。这的确不是正确的方法。我们要以一种建设性的方式来引导。有一些策略可以做到这一点,这是另一个复杂的讨论。
【尼古拉斯·汤普森】你可以想象一下,国会可能会说,在某种技术领域工作的每个人都必须公开自己的数据,或者必须愿意分享他的数据集,至少要让竞争激烈的市场战胜这些难以置信的强大工具。你可以想象,*会说,“实际上,我们将会有一个由*资助的大项目,就像OpenAI一样,但是由*管理。”你可以想象,有一场巨大的国家基础设施运动来发展这项技术,所以至少负责公众利益的核心人士可以控制其中的一部分。你有什么推荐的吗?
【雷·科兹威尔】:我认为开源数据和算法通常是一个好主意。谷歌将所有的人工智能算法与开源的附源代码(TensorFlow)都放在公共领域。我认为这实际上是开源和不断加速的回报定律的结合,它将使我们更接近理想。有很多问题,比如隐私,这些都是维护的关键,我认为这个领域的人通常都很关心这些问题。目前还不清楚正确答案是什么。我认为我们想要继续进步,但是当你有这么大的权力时,即使是出于善意,也会有滥用的情况。
【尼古拉斯·汤普森】:你担心什么?你看待未来非常乐观。但是你担心什么呢?
【雷·科兹威尔】:我被指责为一个乐观主义者,作为一个企业家,你必须是一个乐观主义者,因为如果你了解你遇到的所有问题,你可能永远都不会开始做任何项目。但正如我说过的,我一直在关注和撰写切实存在的一些负面影响。这些技术非常强大,所以我确实很担心,尽管我是一个乐观主义者。我很乐观,我们最终会度过难关。我也不会乐观说,我们不会遇到任何困难。第二次世界大战期间,有5000万人死亡,而当时的技术的力量更是加剧了死亡人数。我认为让人们意识到我们正在取得进步是很重要的。最近在26个国家进行了一项24,000人的民意调查。调查的问题是,“世界的贫困状况是否缓解?”90%的人说,情况变得更糟了,但这是错误的答案。只有1%的人给了正确答案,认为世界贫困人口下降了至少50%。
【尼古拉斯·汤普森】:有关职业生涯,观众们应该做些什么?他们即将进入这样一个世界,在这个世界里,职业选择映射到一个拥有完全不同技术的世界。所以在你看来,给这个房间里的人什么建议?
【雷·科兹威尔】:这确实是一条古老的建议,那就是跟随你的激情,因为真的没有什么领域不会受到影响,或者这不是这个故事的一部分。我们将在云端合并模拟新大脑皮层。所以,我们还是会变得更聪明。我并不认为人工智能会取代我们。它会增强我们的力量。它已经做到了。没有我们今天拥有的这些大脑扩展器,谁能完成它们的工作。这种情况将持续下去。人们会说,“好吧,只有富人才会有这些工具,”我说,“是的,就像智能手机一样,现在有三十亿人已经拥有智能手机了。”我之前说的是二十亿人,但我刚看了新闻,大概是三十亿人。几年后就会变成六十亿。这是因为惊人的价格表现爆炸。所以要找到你有激情的地方。有些人有复杂的情感,他们不容易被归类,所以要找到一种方法,使用可用的工具,让你觉得自己可以改变世界。我提出加速回报定律的原因是,要记录我自己的技术项目所需时间,所以我可以在项目可行的几年前便开始,去尝试和预测技术的发展方向。就在几年前,我们拥有了一些看起来像智能手机的小设备,但它们不太好用。因此,像这种科技革命和移动应用在五年前几乎不存在。五年后,世界将会变得截然不同,所以试着让你的项目发展速度跟上与火车站台的火车的速度。
观众提问:这么多的强调都是关于人性、科学和探索的美好一面,我也很好奇朝我们的机器人合作伙伴迈进的下一步。那黑暗的一面呢?那么战争、战争机器和暴力呢?
【雷·科兹威尔】:我们正在学习如何利用并操控这些平台来扩大人类的各种倾向,而其中很多都是我们正在学习的最新信息。所以人工智能从例子中学习。在这个领域有一句格言,生命始于十亿个例子,最好的例子就是向人们学习,所以人工智能经常向人类学习。情况并不总是这样。阿尔法狗(AlphaGo Zero)刚刚自己学会如何自我对战,但这并不总是可行的,尤其是当你在尝试处理更复杂的现实世界问题时。这一领域做出了巨大努力,所有大公司和开源研究领域也在努力研究中,其目的就是为了消除人工智能的偏见,以及克服性别偏见和种族偏见,因为如果人工智能向有偏见的人类学习,它就会从人们那里获得偏见。作为人类,我们会从我们所见过的所有事物中获取偏见,其中很多都是潜意识的。作为受过教育的人,我们会认识到偏见并试图克服它,我们的头脑中会产生冲突。有一整个领域的研究都是为了消除人工智能的偏见,并克服它们从人类身上获取的偏见。所以这是一种能够克服机器智能的问题的研究。从这些方面来看,机器智能实际上比它学习的人类偏见更少。总的来说,尽管社交媒体上各种各样的承诺和风险交织在一起,但总体来说,这是一件非常有益的事情。我穿过机场,每个两岁以上的孩子都拿着自己的设备。社交媒体已经成为了一个世界性的社区,我认为现在的一代比其他任何一代人都更能感觉到他们是世界公民,因为他们与世界上所有的文化都有联系。
【尼古拉斯·汤普森】:去年,美国与世界其他地区的关系并没有变得更紧密,很多人会说,我们的*没有变得更好。这是持续进步与人类携手共进道路上的曲折,还是很多人误解了它?
【雷·科兹威尔】:美国和世界其他地方在政治上的两极分化是不幸的。我不认为这是我们今天谈论的话题。我的意思是,我们在世界上经历过重大的波折。第二次世界大战是一个相当大的波折,实际上并没有影响到这些趋势。在某些*官员或*中,可能有些事情是我们不喜欢的。但这里有一点需要讨论。我们并不是在无法表达自己的观点的极权主义的时代。如果我们朝那个方向发展,我会更担心,但我不认为会发生这种情况。所以,不要贬低*和当权者的重要性,但这是在一个不同的层面上。我们谈论的这些问题并没有受到这些事情的影响。我担心的是存在的风险,因为技术是一把双刃剑。
观众提问:我的问题与不平等有关。在人类历史的大部分时期,经济不平等程度相当高,这其中有很多阶段。我想知道,你是否认为20世纪是一种反常现象,以及科技的扩散将如何影响这种不平等。
【雷·科兹威尔】:经济平等问题正在朝好的方向发展。根据世界银行的数据,在过去的20年里,亚洲的贫困人口减少了90%以上,从原始的农业经济发展到繁荣的信息经济。非洲和南美的经济增长率远高于发达国家。你看到的任何地方,都存在着不平等现象,但事情正在朝着正确的方向快速发展。在过去的20年里,全世界的贫困人口减少了50%。还有很多其他的衡量标准。所以我们正朝着正确的方向前进。在任何一个时间点上,都存在严重的不平等,都有人正经历苦难,但这些现象正朝着好的方向发展。
观众提问:我从你的评论中得知你正在预测人工智能离下一阶段还有12年,你已经提到过几次,尽管你很乐观,但你担心的是存在风险,所以我想知道你是否可以详细说明一下你的意思,你认为技术专家应该做什么来降低这些风险?
【雷·科兹威尔】:我的意思是,存在的风险是威胁我们文明生存的风险。因此,人类面临的第一个生存风险是核扩散。我们已经有能力摧毁所有人类的生命。有了这些新技术,我们不难想到,它们可能具有极大的破坏性,并摧毁全人类。例如,生物技术。我们有能力从疾病中重新规划生物学,比如免疫疗法,这是治疗癌症的一个非常令人兴奋的突破,我认为这非常具有革命性,不过它只是刚刚开始。它正在重新编程免疫系统去治疗癌症,而通常情况下不可能做到。但是,生物*可以对一种病毒进行重新编程,使其更加致命,更具传染性,更加隐秘,从而制造出一种超级武器。这就是40年前第一次阿西洛玛会议所引发的难题。这些反复出现的会议让这些伦理准则、安全协议和策略变得更加复杂,到目前为止,它已经起作用了。但我们一直在让这项技术变得更加复杂,所以我们必须一次又一次地重新制定这些准则。我们刚刚举行了第一次关于人工智能伦理的会议。我们提出了一套道德规范,并且都已署名通过。其中很多都是模糊的。我认为这是一个非常重要的问题。我们发现我们必须在软件中建立伦理价值观。一个典型的例子就是无人驾驶汽车。自动驾驶汽车的全部动机是,在200万名人类司机中,避免99%的司机的死亡,但它将陷入一种境地,必须做出道德决策:它应该朝着婴儿车或向老年夫妇行驶,还是向墙壁行驶,而这可能导致乘客死亡。无人驾驶车是否有道德准则,不导致车内乘客的死亡?在这种情况下,无人驾驶车不能给软件设计师发送电子邮件,然后说,“天哪,我该怎么办?”道德准则必须内置在软件中。所以这些都是实际问题,在这个问题上,人工智能有一个完整的领域。
但我们该如何应对更为实际存在的风险:短期内就能实现的人工智能武器化。世界各地的国防部都在使用人工智能。当时有一份文件要求人们同意禁止使用自动武器,这听起来是个好主意,而使用的例子是“我们禁止化学武器,所以为什么不使用自主的人工智能武器呢?”这有点复杂,因为我们可以不用炭疽,也不用天花。禁止化学武器是可以的。但自动武器是一种两用技术。能将你的冷冻华夫饼或药品送到非洲一家医院的亚马逊无人机,可能用于运输一种武器。这是同样的技术,一切已蓄势待发。也就是说,这是一个更复杂的问题,如何处理。但我们的目标是收获承诺并控制风险。没有简单的算法,我们可以把这个子程序放入我们的人工智能中,“好吧,把这个子程序放进去。”它会让你的人工智能保持良性。”智力天生就是无法控制的。我的策略并不愚蠢,它是在我们自己的人类社会中实践我们希望在世界上看到的道德、道德和价值观。因为未来的社会并不是某些来自火星的智能机器的入侵。它诞生于我们今天的文明。这将会增强我们的自我。因此,如果我们正在实践我们今天所珍视的价值观,那就是在未来拥有一个包含这些价值观的世界的最佳策略。
下一篇: 你所了解的物联网都是错的吗?