OpenAI黑盒技术助力人工智能 训练时长缩短60倍
程序员文章站
2022-03-31 10:37:51
训练神经网络并非易事。尽管实现起来并不难,但无论你可以使用多少计算能力,都要花好几个小时才能做好。OpenAI的研究人员可能有一个更好的解决办法:打破常规。他们开发出了一种进化策略,可以保证更强大的人...
训练神经网络并非易事。尽管实现起来并不难,但无论你可以使用多少计算能力,都要花好几个小时才能做好。OpenAI的研究人员可能有一个更好的解决办法:打破常规。
他们开发出了一种进化策略,可以保证更强大的人工智能系统,而这一策略实际上与生物进化并没有多大关系。他们没有使用常规的强化训练方式,而是创建了一个“黑盒”,没有环境和神经网络的参与。这种方法是在单独优化特定功能,并在必要的情况下共享它。
这个系统的运行从很多随机参数开始,然后进行猜测和后续微调,以支持更多的对象,最后逐渐找出最优解。比如说,你可以从一百万个数字开始运行,但最后你只会得到一个数字。
这听起来有点神秘,但其好处也是很容易理解的。这项技术消除了传统神经网络训练的一些不便之处,使代码更容易运行,速度也快了两到三倍。而在这个系统中,人工处理的部分只需要占到非常少量的数据,就可以更好地解决问题。在测试中,一台拥有1440个处理器核心的超级计算机,训练仅需10分钟,而传统装置则需要10小时。即使是所谓“低配”的720核系统,也可以在1小时内完成32核系统需要一整天才能完成的任务。
不过,“黑盒”的方法真正运用到人工智能世界中,还有很长的一段路要走。然而,实际效果也是显而易见的:神经网络运营商可以大幅节约训练系统的时间,从而把更多的精力花费在实际使用中。随着电脑运行速度的加快,这种学习方法的实际应用也更加具有可能性。终有一天,你可能会看到机器人可以快速适应新任务和从错误中学习了。(来源/Engadget 翻译/机器小易 审校/小ka)