欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

人工智能树立三观第一步:饱读诗书

程序员文章站 2022-04-06 13:12:18
许多科技大牛对人工智能技术都有些谈虎色变,硅谷钢铁侠马斯克就是其中之一,2014年他在公开场合表示“AI技术正在召唤恶魔”,称AI技术将像《2001太空漫游》中的HAL 900...

人工智能树立三观第一步:饱读诗书

许多科技大牛对人工智能技术都有些谈虎色变,硅谷钢铁侠马斯克就是其中之一,2014年他在公开场合表示“AI技术正在召唤恶魔”,称AI技术将像《2001太空漫游》中的HAL 9000人工智能电脑一样杀死所有“船员”。无独有偶,著名物理学家霍金也表达了自己的担忧,他认为人类不断在AI领域探索“是个极大的错误,该错误甚至可能是人类有史以来犯过的最愚蠢的错误。”

不过也有人不信这一套,来自佐治亚理工学院交互计算系的人工智能研究人员Mark Riedl就是其中之一。

“我认为人们大可放心,人工智能反噬人类的情况不太可能发生,”Riedl说道。“我认为科幻片中的天网不太可能诞生,而且AI也不会将人类看成它们的威胁。”此外,以现在的技术水平来看,想要打造马斯克和霍金眼中那种觉醒后会毁灭人类文明的AI还不太现实。

不过,未雨绸缪总不是坏事,在AI的发展之路上,许多专家已经开始了行动。举例来说,未来自动驾驶汽车载着我们出行时,就需要替人类做出许多选择。那么如何调教AI,让其符合人类的价值标准,以保证我们的安全不受侵害就成了需要考虑的问题之一。

AI也需要饱读诗书

Riedl认为要想让AI理解人类,最好的办法就是让它阅读那些饱含人类价值观的书目。简单来说,如果AI能阅读《圣经》等作品,就能通过学习树立正确的三观,分清善恶的界限。

Riedl表示,人工智能即使会伤害人类,也不是因为其性本恶,而是因为它根本不理解到底什么是伤害。此外,我们也很难给AI列出一个清单,告诉它什么可以做,什么不可以做。因此,我们要让AI适应人类文化。

“问题在于我们手中并没有关于道德和不道德行为的完整资料库,”他说道。“不过人类几千年的文明孕育了太多的善恶故事,即使我们人类,也是通过学习树立自己的三观。在人类文化方面,我们可没有用户使用手册,不过智慧的前人已经将精华放进了许许多多的故事中。”

Riedl和他的同事Brent Harrison最近在一篇名为《用故事给AI灌输价值观》的论文中提到了上述观点。他们的研究基于一个名为Scheherazade的人工智能项目,在这里,AI可以写出交互式小说(即通过不断选择来决定故事的发展方向),当然,在开写前AI需要从其他故事中取经。在研究过程中,Riedl和Harrison洞悉了AI从大量故事中学习写作技巧的方法,他们将其制成了名为Quixote的系统,该系统可以教会AI用合适的方式完成任务。

分清“买药”和“抢药”

举例来说,Riedl和Harrison会下令让AI从药房拿些药。“如果AI只是以效率为先,它肯定会冲进药房抢走所需药品并逃之夭夭。”Riedl说道。

AI会犯这种大错不是因为它身性邪恶,而是它根本不知道去药房拿药需要排队和付款。而这些约定俗成的习惯可不是学校学来的,而是人们在生活中耳濡目染慢慢习得的。不过AI可没有父母,也没人肯花大量时间来培养它,因为它们生来就是要完成任务的。

“不过如果我们能通过一系列真实的故事让AI学会社会准则,那么它们一定会有很大的进步,跑去药房抢药的事就再也不会发生了。”Riedl说道。

虽然需要许多限制性因素,但Riedl和Harrison通过实验验证了自己的理论。当然,在实验中去药房买药的AI并没有获得机器外壳,而且它们参考的故事都直接与去药房买药一事息息相关(可能那个故事很无聊,因为是专门为这次实验撰写的)。

在实验中,如果AI表现出色,就会得到奖励,但如果违反了社会准则,就会受到惩罚。

“这种做法非常明智,”生物伦理学家兼美国进步中心研究员Jonathan Moreno说道。“通过小说,我们可以接触他人的实际生活。同时,小说也是作者眼中社会价值和期待的集中体现,Riedl的做法值得点赞。”

谁来编教材?

如果我们真能做出天网级别的AI,恐怕Riedl和Harrison的AI培养法会成为救世主,不过到时我们还要考虑用什么故事来教育它们。

当然,不是所有小说都能成为AI的老师,有时人类世界的故事善恶不是特别分明,一个人可能是罪犯,但在人性中他却有自己的闪光点。此外,世界上有许多反英雄形象,而且圣经中的许多准则也并不符合当下的价值观。

这些问题又给我们引出了另一个在道德上模棱两可的问题,那就是:谁有权为AI选择它们要学习的故事呢?

“可以说这是一个政治问题,”Moreno说道。“在我看来,这问题根本没有正确答案。如果想走这条路,我们就需要从各个方面进行分析和决断。”

“如果你想成为AI的老师,那就得拥有圣人般的学识,”Riedl说道,“但如果你在教材中删掉了反英雄形象,那就说明你这圣人当得不合格,因为你对这个社会根本没有深刻的理解,而这正是我的担心之一。我们已经进入了大数据时代,经验告诉我们,超量数据总比刚好够更安全,因此只要是合规的,就可以加入供AI学习的数据库中,只有这样我们才能不偏不倚的判断出到底什么是善什么是恶。”

让AI变得比人类更加善良绝对是件好事,但仅通过代码是无法完成这项伟业的。即使是阿西莫夫,也是凭直觉写下不朽的机器人三定律的。因此,眼下能让AI在三观上比肩人类已经是个复杂的任务了。所以我们只能寄希望AI从故事中多学好品质,少学点人类的尔虞我诈了。