深度学习lstm防止过拟合之dropout
程序员文章站
2022-03-06 21:24:52
...
一般我们使用L1和L2进行正则化防止过拟合,在深度学习中我们也可以使用dropout进行正则化。
http://www.cnblogs.com/santian/p/5457412.html
dropout是临时删除一部分神经元,梯度下降更新其他神经元的权值。然后下次临时删除其他的神经元同样进行这样的操作,这样就可以防止过拟合。
上一篇: TiDB Binlog部署