欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Python深度学习神经网络基本原理

程序员文章站 2022-06-23 10:50:31
目录神经网络梯度下降法在详细了解梯度下降的算法之前,我们先看看相关的一些概念。    1. 步长(learning rate):步长决定了在梯度下降迭代的过程中,每一步沿梯度负方向前进的长度。用上面下...

神经网络

Python深度学习神经网络基本原理

Python深度学习神经网络基本原理

Python深度学习神经网络基本原理

Python深度学习神经网络基本原理

梯度下降法

在详细了解梯度下降的算法之前,我们先看看相关的一些概念。

    1. 步长(learning rate):步长决定了在梯度下降迭代的过程中,每一步沿梯度负方向前进的长度。用上面下山的例子,步长就是在当前这一步所在位置沿着最陡峭最易下山的位置走的那一步的长度。

    2.特征(feature):指的是样本中输入部分,比如2个单特征的样本(x(0),y(0)),(x(1),y(1))(x(0),y(0)),(x(1),y(1)),则第一个样本特征为x(0)x(0),第一个样本输出为y(0)y(0)。

    3. 假设函数(hypothesis function):在监督学习中,为了拟合输入样本,而使用的假设函数,记为hθ(x)hθ(x)。比如对于单个特征的m个样本(x(i),y(i))(i=1,2,...m)(x(i),y(i))(i=1,2,...m),可以采用拟合函数如下: hθ(x)=θ0+θ1xhθ(x)=θ0+θ1x。

    4. 损失函数(loss function):为了评估模型拟合的好坏,通常用损失函数来度量拟合的程度。损失函数极小化,意味着拟合程度最好,对应的模型参数即为最优参数。在线性回归中,损失函数通常为样本输出和假设函数的差取平方。比如对于m个样本(xi,yi)(i=1,2,...m)(xi,yi)(i=1,2,...m),采用线性回归,损失函数为:

j(θ0,θ1)=∑i=1m(hθ(xi)−yi)2j(θ0,θ1)=∑i=1m(hθ(xi)−yi)2

其中xixi表示第i个样本特征,yiyi表示第i个样本对应的输出,hθ(xi)hθ(xi)为假设函数。

Python深度学习神经网络基本原理

Python深度学习神经网络基本原理

Python深度学习神经网络基本原理

Python深度学习神经网络基本原理

分享人:张娇娟

到此这篇关于python深度学习神经网络基本原理的文章就介绍到这了,更多相关python 神经网络内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!