霍金:人工智能技术不应过度发展
程序员文章站
2022-06-26 18:30:13
英国理论物理学家斯蒂芬·霍金日前说,人工智能科技在初级发展阶段的确为人类生活带来便利,不过要警惕其过度发展,因为得到充分发展的人工智能或许预示着人类最终被超越。由于患有运动神经元疾病,霍...
英国理论物理学家斯蒂芬·霍金日前说,人工智能科技在初级发展阶段的确为人类生活带来便利,不过要警惕其过度发展,因为得到充分发展的人工智能或许预示着人类最终被超越。
由于患有运动神经元疾病,霍金需利用一台机器与外界交流。受智能手机输入法启发,美英两家科技公司合作,为霍金的电脑“量身定制”出一款新的打字软件,使这位科学家的“说话”速度提升一倍。这种软件就利用了基础的人工智能技术,可“猜测”使用者的思维,推荐下一个可能用到的字词。
当天在这款新软件的发布会上,霍金坦承人工智能的初步发展已证明了其有用性,但他担心这类技术最终会发展出与人类智慧相当甚至超越人类的机器。“到时它(机器)将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。”
今年5月,霍金曾与另外几位科学家为英国《独立报》撰文,称人们目前对待人工智能的潜在威胁“不够认真”。“短期来看,人工智能产生何种影响取决于谁在控制它。而长期来看,这种影响将取决于我们还能否控制它。”如何趋利避害是所有人都需要考虑的问题。
不过也有科学家认为,霍金对于人工智能的未来过于悲观。他们指出,至少在相当长的时间里,人类会完全掌控这类技术的发展,利用它来解决许多现实问题,而要让人工智能技术得到“充分发展”,还有很长的路要走。
上一篇: 详解mysql权限和索引