欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

人工智能与核武器,哪个更危险

程序员文章站 2022-03-05 12:04:47
埃博拉病毒听起来像噩梦。禽流感和SARS也让我脊背发凉。但是我告诉你什么让我最害怕:人工智能。如果有足够的资源,人类能阻止前三项疾病的传播。但最后一项是由人类所创造,它很快将变得无法阻挡。在我们探讨可...

埃博拉病毒听起来像噩梦。禽流感和SARS也让我脊背发凉。但是我告诉你什么让我最害怕:人工智能。

如果有足够的资源,人类能阻止前三项疾病的传播。但最后一项是由人类所创造,它很快将变得无法阻挡。

在我们探讨可能出现什么问题之前,让我先解释一下什么是人工智能。实际上不用我解释。我让别人来解释一下。你拿起iPhone,问问Siri天气和股票情况。或者对她说“我喝醉了”,她的回答就是人工智能的结果。

现在,这些人工智能机器非常可爱、无辜,但是随着它们在社会上被赋予更多权力,用不了多久它们就会失控。

一开始只是些小毛病,但是它们意义重大。比如,一台出现故障的电脑瞬间让股市崩溃,导致数十亿美元的损失。或者一辆无人驾驶汽车因软件升级错误在高速公路上突然静止不动。

人工智能与核武器,哪个更危险

但是这些*能快速升级,变得非常可怕,甚至变成大灾难。想像一下,一个最初用来对抗癌症的医用机器人可能得出这样的结论:消灭癌症的最佳方法是消灭那些从基因角度讲易于患病的人。

《超级智能》(Superintelligence)一书的作者尼克·博斯特罗姆(Nick Bostrom)描述了几种会导致人类灭绝的可怕情况。一种是能自我复制的纳米机器人。在理想情态下,这些机器人能在人体内战胜疾病,或者消除地球上的放射性物质。但博斯特罗姆说,“如果有邪恶企图的人掌握了这种技术,那可能导致地球上智能生命的灭绝。”

人工智能支持者们辩称,这些事情永远都不会发生,程序员们会设置一些防护措施。但是让我们现实一点:程序员们花了近半个世纪才能让你在每次想查看邮件时电脑不崩溃。是什么让他们认为自己能够驾驭这些准智能机器人大军?

不是只有我一个人有这样的担心。硅谷的常驻未来主义者埃隆·马斯克(Elon Musk)最近说,人工智能“可能比核武器还危险”。斯蒂芬·霍金(Stephen Hawking)是地球上最聪明的人之一。他写道,成功的人工智能“会是人类历史上最重大的事件。不幸的是,它也可能会是最后一个大事件”。还有很多计算机专家和科幻小说作家担心未来的世界充满故障机器人。

人工智能有两个主要问题让马斯克和霍金等人担忧。离我们较近的一个问题是,我们正在创造一些能像人类一样做决定的机器人,但这些机器没有道德观念,而且很可能永远也不会有。

第二个问题离我们较远。那就是,一旦我们创造出和人一样智能的系统,这些智能机器将能够建造更智能的机器,后者通常被称为超级智能。专家们说,到那时,事情真的会迅速失控,因为机器的增长和膨胀速度将是迅猛的。我们不可能在自己尚未建立的系统中设置防护措施。

“我们人类掌控未来不是因为我们是地球上最强壮或最快的生物,而是因为我们是最智能的,”《我们的终极发明:人工智能和人类时代的终结》(Our Final Invention: Artificial Intelligence and the End of the Human Era)的作者詹姆斯·巴拉(James Barrat)说,“所以当这个星球上有比我们更智能的东西时,它将统治地球。”

更难理解的是,我们并不确切知道超级智能机器的外形或行为方式。“潜水艇会游泳吗?会,但它的游泳方式跟鱼不同,”巴拉说,“飞机会飞吗?会,但它的飞行方式跟鸟不同。人工智能不会跟我们一模一样,但它将是我们的终极智能版本。”

也许最可怕的是这些技术将会如何被军队利用。不难想像那些正在进行军备竞赛的国家会制造能杀人的机器。

邦妮·多彻蒂(Bonnie Docherty)是哈佛大学的法律讲师,也是*观察组织的高级研究员。她说,人工智能自主武器的军备竞赛正在进行,这让人想起了核武器竞赛的初期;在这些机器人上战场杀人之前,我们必须先订好条约。

“如果现在不制止这种技术,它将会导致军备竞赛,”多彻蒂说。她写过几个报告,讲述杀手机器人的危险。“如果一个国家在开发它,那另一个国家也会开发。这些致命的机器缺乏道德观念,不应该被赋予杀*力。”

那么我们如何保证所有这些世界末日的情形不会成为现实?在某些情况下,我们很可能无法阻止它们。

但是在谷歌的领导下,我们能阻止某些可能出现的混乱。今年年初,这个搜索引擎巨头收购了DeepMind公司,后者是伦敦的一家以神经系统科学为基础的人工智能公司。这两家公司建立了一个人工智能安全伦理委员会,旨在保证这些技术安全发展。

DeepMind的创始人、首席执行官杰米斯·哈萨比斯(Demis Hassabis)在一次视频采访中说,所有开发人工智能的机构,包括*和公司,都应该这样做。“他们一定要考虑自己的所作所为会带来的伦理后果,”哈萨比斯说,“而且一定要早早考虑。”