Python深度学习神经网络基本原理
神经网络
梯度下降法
在详细了解梯度下降的算法之前,我们先看看相关的一些概念。
1. 步长(learning rate):步长决定了在梯度下降迭代的过程中,每一步沿梯度负方向前进的长度。用上面下山的例子,步长就是在当前这一步所在位置沿着最陡峭最易下山的位置走的那一步的长度。
2.特征(feature):指的是样本中输入部分,比如2个单特征的样本(x(0),y(0)),(x(1),y(1))(x(0),y(0)),(x(1),y(1)),则第一个样本特征为x(0)x(0),第一个样本输出为y(0)y(0)。
3. 假设函数(hypothesis function):在监督学习中,为了拟合输入样本,而使用的假设函数,记为hθ(x)hθ(x)。比如对于单个特征的m个样本(x(i),y(i))(i=1,2,...m)(x(i),y(i))(i=1,2,...m),可以采用拟合函数如下: hθ(x)=θ0+θ1xhθ(x)=θ0+θ1x。
4. 损失函数(loss function):为了评估模型拟合的好坏,通常用损失函数来度量拟合的程度。损失函数极小化,意味着拟合程度最好,对应的模型参数即为最优参数。在线性回归中,损失函数通常为样本输出和假设函数的差取平方。比如对于m个样本(xi,yi)(i=1,2,...m)(xi,yi)(i=1,2,...m),采用线性回归,损失函数为:
j(θ0,θ1)=∑i=1m(hθ(xi)−yi)2j(θ0,θ1)=∑i=1m(hθ(xi)−yi)2
其中xixi表示第i个样本特征,yiyi表示第i个样本对应的输出,hθ(xi)hθ(xi)为假设函数。
分享人:张娇娟
到此这篇关于python深度学习神经网络基本原理的文章就介绍到这了,更多相关python 神经网络内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!
上一篇: Python 几行代码即可实现人脸识别
推荐阅读
-
100本Python机器学习、深度学习电子书,免费送!
-
13个最常用的Python深度学习库介绍
-
MacOS配置Anaconda3(Miniconda3)下Python3.6、Python3.7和Python2.7环境和基础机器学习、神经网络相关包详解(版本号对应)
-
如何利用Python和深度神经网络锁定即将流失的客户?业绩过十万!
-
Python做深度学习(三)
-
python开启摄像头以及深度学习实现目标检测方法
-
python机器学习之神经网络实现
-
深度学习笔记 - IoU python 高质量实现
-
深度学习之美(张玉宏)——第四章 人生苦短我用python
-
Python还能用于医学方面!这就亮瞎了我的钛合金人眼了!深度学习