欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

人工智能-Python实现岭回归

程序员文章站 2022-05-15 08:37:06
...

本文介绍人工智能-Python实现岭回归, 是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法,对病态数据的拟合要强于最小二乘法
1 概述
1.1 线性回归
对于一般地线性回归问题,参数的求解采用的是最小二乘法,其目标函数如下:

argmin\left | Xw-y \right |^{2}

参数 w 的求解,也可以使用如下矩阵方法进行:

w=(X^{T}X)^{-1}X^{T}y

这个公式看着吓人,其实推导过程简单由(y=wX推导而来,纸老虎)
对于矩阵 X ,若某些列线性相关性较大(即训练样本中某些属性线性相关),就会导致
的值接近 0 ,在计算\left ( X^{T}X\right )^{-1}时就会出现不稳定性。
结论 : 传统的基于最小二乘的线性回归法缺乏稳定性。

1.2 岭回归
岭回归的优化目标:

argmin\left | Xw-y \right |^{2}+\partial \left | w \right |^{2}

对应的矩阵求解方法为:

w=(X^{T}X+\partial I)^{-1}X^{T}y

岭回归(ridge regression) 是一种专用于共线性数据分析的有偏估计回归方法。
是一种改良的最小二乘估计法,对某些数据的拟合要强于最小二乘法。

1.3 过拟合
人工智能-Python实现岭回归
图二就是正常拟合,符合数据的趋势,而图三,虽然在训练集上拟合得很好,但是出现未知数据时,比如Size很大时,根据目前拟合来看,可能得到的结果很小,与实际误差会很大。

2 sklearn中的岭回归
在sklearn库中,可以使用sklearn.linear_model.Ridge调用岭回归模型,其主要参数有:

• alpha:正则化因子,对应于损失函数中的 ?
• fit_intercept:表示是否计算截距,
• solver:设置计算参数的方法,可选参数‘auto’、‘svd’、‘sag’等。
3 案例
交通流量预测实例:

3.1 数据介绍
数据为某路口的交通流量监测数据,记录全年小时级别的车流量。

3.2 实验目的
根据已有的数据创建多项式特征,使用岭回归模型代替一般的线性模型,对 车流量 的信息进行 多项式回归 。

3.3 数据特征如下
HR :一天中的第几个小时(0-23)
WEEK_DAY :一周中的第几天(0-6)
DAY_OF_YEAR :一年中的第几天(1-365)
WEEK_OF_YEAR :一年中的第几周(1-53)
TRAFFIC_COUNT :交通流量
全部数据集包含2万条以上数据(21626)
人工智能-Python实现岭回归

  1. #*================1. 建立工程,导入sklearn相关工具包====================**
  2. import numpy as np
  3. from sklearn.linear_model import Ridge #通过sklearn.linermodel加载岭回归方法
  4. from sklearn import model_selection #加载交叉验证模块
  5. import matplotlib.pyplot as plt #加载matplotilib模块
  6. from sklearn.preprocessing import PolynomialFeatures #通过加载用于创建多项式特征,如aba2b2
  7. #*=================2. 数据加载=========================================**
  8. data=np.genfromtxt('岭回归.csv',delimiter=',') #使用numpy的方法从csv文件中加载数据
  9. print(data)
  10. print(data.shape)
  11. plt.plot(data[:,4]) #使用plt展示车流量信息
  12. #plt.show()
  13. #*================3. 数据处理==========================================**
  14. X=data[:,:4] #X用于保存0-3维数据,即属性
  15. y=data[:,4] ##y用于保存第4维数据,即车流量
  16. poly=PolynomialFeatures(6) #用于创建最高次数6次方的的多项式特征,多次试验后决定采用6
  17. X=poly.fit_transform(X) #X为创建的多项式特征
  18. #*================4. 划分训练集和测试集=================================**
  19. train_set_x, test_set_x , train_set_y, test_set_y =model_selection.train_test_split(X,y,test_size=0.3,
  20. random_state=0)
  21. #将所有数据划分为训练集和测试集,test_size表示测试集的比例,
  22. # #random_state是随机数种子
  23. #*==============5. 创建回归器,并进行训练===============================**
  24. clf=Ridge(alpha=1.0,fit_intercept = True)
  25. #接下来我们创建岭回归实例
  26. clf.fit(train_set_x,train_set_y) #调用fit函数使用训练集训练回归器
  27. clf.score(test_set_x,test_set_y) #利用测试集计算回归曲线的拟合优度,clf.score返回值为0.7375
  28. #拟合优度,用于评价拟合好坏,最大为1,无最小值,当对所有输入都输出同一个值时,拟合优度为0
  29. #*============6. 画出拟合曲线=========================================**
  30. start=100 #接下来我们画一段200300范围内的拟合曲线
  31. end=200
  32. y_pre=clf.predict(X) #是调用predict函数的拟合值
  33. time=np.arange(start,end)
  34. plt.plot(time,y[start:end],'b', label="real")
  35. plt.plot(time,y_pre[start:end],'r', label='predict') #展示真实数据(蓝色)以及拟合的曲线(红色)
  36. plt.legend(loc='upper left') #设置图例的位置
  37. plt.show()

4.2 结果
人工智能-Python实现岭回归
分析结论 :预测值和实际值的走势大致相同
人工智能-Python实现岭回归
以上就是本文全部内容,希望能给大家带来帮助。