欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

发展人工智能:高瞻远瞩还是自掘坟墓?

程序员文章站 2022-12-04 23:21:21
我们有充分理由乐观看待人工智能研究。为了遥远未来可能发生的危险而遏制技术的发展是愚蠢的。在人工智能高度发展的未来,人类或许将面对一场“身份危机”:人类到底是伟大还是渺小,自我存...

我们有充分理由乐观看待人工智能研究。为了遥远未来可能发生的危险而遏制技术的发展是愚蠢的。在人工智能高度发展的未来,人类或许将面对一场“身份危机”:人类到底是伟大还是渺小,自我存在的意义是什么……这或许将成为人类的困扰。

1950年,阿兰图灵的一篇里程碑式的论文《机器能思考吗?》为人类带来了一个新学科—人工智能。为了证明机器是否能够思考,他又发明了“图灵测试”(Turing Test),图灵测试在今天仍被沿用。

然而,目前为止人类唯一了解的智能是人本身的智能,如果让机器也具有意识、思维、情感,这究竟是否可以做到,或者说真的达到这个目标后,会给人类带来什么影响,依然是未知数。但,这并不妨碍科学家朝着人工智能的目标前进。

近几年,科学界和产业界对它的兴趣超越了以往。最近一年半来,谷歌收购了十几家机器人公司,并正在开发人工智能的一个图腾——无人驾驶汽车;去年,社交媒体脸谱成立了新的人工智能实验室……数据显示,2009年以来,人工智能吸引了超过170亿美元的投资,仅去年就有20多亿美元投向拥有类人工智能技术的322家公司。

发展人工智能:高瞻远瞩还是自掘坟墓?

在并行计算、数字化神经网络、云技术、大数据以及深度学习算法等技术的推动下,人工智能的形态正逐渐显现:它既不是拥有与人类相似意识的机器人,也不是奇点论(人工智能与人脑智慧兼容的时刻)者宣称的超智能,而是应用在狭窄的专业领域,如医学、教育、法律、太空等高度专一的“行家”。

随着人工智能的发展,人类终有一天将被其取代的恐慌感也应运而生。美国奇点大学人工智能项目负责人尼尔·杰卡布斯坦早就说过:“要应对即将到来的人工智能革命,我们需要在数学素养、生态素养尤其是道德素养上不断自我提升。”

科学的发展总是出乎我们的预料。在一项技术推广前,审慎的评估和良好的风险控制是必要的,克隆技术、大数据、基因测序无不如此。杰卡布斯坦认为,假设人类成功构建了超级计算机,而它想的跟我们不一样,我们就得加以控制,就像对待孩子一样。

走在前沿的人和公司,已经采取了一些行动阻止可能出现的混乱。谷歌在年初收购了以神经系统科学为基础的人工智能公司迪普曼德,随后即成立了“人工智能安全伦理委员会”,以确保技术安全发展。

我们有充分理由乐观看待人工智能研究。为了遥远未来可能发生的危险而遏制技术的发展是愚蠢的。但在过去60年中,随着人工智能每一次成功地“复制”只有人类才有的行为和能力,人类便不得不对人工智能进行重新定义,也不得不重新定义“人类”的含义。人工智能——这个除了人以外最像人的东西,其实是我们心理投射中一个再好不过的客体。

如今,人工智能对社会的影响正逐渐增大。未来随着人工智能技术的发展,根除疾病和贫困将不再是遥不可及的梦想。有人说,人工智能可能“比核武器更加危险”。但核武器被开发近70年来,世界非但没有毁灭,反而进入一个微妙的较和平时期。核能的和平利用,也在为人类的现代生活作出贡献。

在人工智能高度发展的未来,人类或许将面对一场“身份危机”:人类到底是伟大还是渺小,自我存在的意义是什么……这或许将成为人类的困扰。