欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

“噩梦清单” 警惕人工智能引发“身份危机”

程序员文章站 2022-05-10 11:53:41
进入文明时代以来,人类就一直担心有朝一日会遭遇“灭顶之灾”,比如说变异的病毒、小行星撞击地球,以及核灾难等。随着机器人技术的不断演进,人类的“噩梦清单”...

进入文明时代以来,人类就一直担心有朝一日会遭遇“灭顶之灾”,比如说变异的病毒、小行星撞击地球,以及核灾难等。随着机器人技术的不断演进,人类的“噩梦清单”上恐怕又多了一项:人工智能有可能发展出自己的思想,进而引发人类的“身份危机”。

近来发出类似警告的是两位顶尖科学家。一位是理论物理学家斯蒂芬·霍金,他甚至认为,当人工智能发展完全,就是人类的末日;另一位是电动汽车品牌特斯拉的掌门人马斯克,他曾公开表示:“我们要十分小心人工智能,它可能比核武器更危险。”

对人工智能的研究始于上世纪50年代。近几年,科学界和产业界对它的兴趣超越了以往。最近一年半来,谷歌收购了十几家机器人公司,并正在开发人工智能的一个图腾——无人驾驶汽车;去年,社交媒体脸谱成立了新的人工智能实验室……数据显示,2009年以来,人工智能吸引了超过170亿美元的投资,仅去年就有20多亿美元投向拥有类人工智能技术的322家公司。

“噩梦清单” 警惕人工智能引发“身份危机”

在并行计算、数字化神经网络、云技术、大数据以及深度学习算法等技术的推动下,人工智能的形态正逐渐显现:它既不是拥有与人类相似意识的机器人,也不是奇点论(人工智能与人脑智慧兼容的时刻)者宣称的超智能,而是应用在狭窄的专业领域,如医学、教育、法律、太空等高度专一的“行家”。随着人工智能的发展,人类终有一天将被其取代的恐慌感也应运而生。美国奇点大学人工智能项目负责人尼尔·杰卡布斯坦早就说过:“要应对即将到来的人工智能革命,我们需要在数学素养、生态素养尤其是道德素养上不断自我提升。”

科学的发展总是出乎我们的预料。在一项技术推广前,审慎的评估和良好的风险控制是必要的,克隆技术、大数据、基因测序无不如此。杰卡布斯坦认为,假设人类成功构建了超级计算机,而它想的跟我们不一样,我们就得加以控制,就像对待孩子一样。走在前沿的人和公司,已经采取了一些行动阻止可能出现的混乱。谷歌在年初收购了以神经系统科学为基础的人工智能公司迪普曼德,随后即成立了“人工智能安全伦理委员会”,以确保技术安全发展。

我们有充分理由乐观看待人工智能研究。为了遥远未来可能发生的危险而遏制技术的发展是愚蠢的。但在过去60年中,随着人工智能每一次成功地“复制”只有人类才有的行为和能力,人类便不得不对人工智能进行重新定义,也不得不重新定义“人类”的含义。人工智能——这个除了人以外最像人的东西,其实是我们心理投射中一个再好不过的客体。在人工智能高度发展的未来,人类或许将面对一场“身份危机”:人类到底是伟大还是渺小,自我存在的意义是什么……这或许将成为人类的困扰。