Python机器学习库scikit-learn安装与基本使用教程
本文实例讲述了Python机器学习库scikit-learn安装与基本使用。分享给大家供大家参考,具体如下:
引言
scikit-learn是Python的一个开源机器学习模块,它建立在NumPy
,SciPy
和matplotlib
模块之上能够为用户提供各种机器学习算法接口,可以让用户简单、高效地进行数据挖掘和数据分析。
scikit-learn安装
python 中安装许多模板库之前都有依赖关系,安装 scikit-learn 之前需要以下先决条件:
Python(>= 2.6 or >= 3.3)
NumPy (>= 1.6.1)
SciPy (>= 0.9)
如无意外,下面用 pip 的安装方法可以顺利完成~~
安装 numpy
sudo pip install numpy
安装 scipy
需要先安装 matplotlib ipython ipython-notebook pandas sympy
sudo apt-get install python-matplotlib ipython ipython-notebook sudo apt-get install python-pandas python-sympy python-nose sudo pip install scipy
安装 scikit-learn
sudo pip install -U scikit-learn
测试
在 terminal 里面输入
pip list
这个会列出 pip 安装的所有东西,如果里面有 sklearn 这一项,应该就是大功告成了!
或者尝试着将几个模板库导入进来
import numpy import scipy import sklearn
加载数据(Data Loading)
本文所使用的数据集为‘今日头条'近期两篇热门新闻“”、“”分别500条评论,共1000条评论。
去除停用词后得到了词库大小为3992的词库。因此构建了1000×3992的特征矩阵,以及长度为1000的对应评论所属类别列表
import numpy as np feature_matrix = np.load('dataSet/feature_matrix_save.npy') class_list = np.load('dataSet/class_result_save.npy')
数据归一化(Data Normalization)
大多数机器学习算法中的梯度方法对于数据的缩放和尺度都是很敏感的,在开始跑算法之前,我们应该进行归一化或者标准化的过程,这使得特征数据缩放到0-1范围中。scikit-learn提供了归一化的方法:
from sklearn import preprocessing # 归一化(Normalization) normalized_X = preprocessing.normalize(feature_matrix) print normalized_X # 标准化(Standardization) standardized_X = preprocessing.scale(feature_matrix) print standardized_X
特征选择(Feature Selection)
在解决一个实际问题的过程中,选择合适的特征或者构建特征的能力特别重要。这成为特征选择或者特征工程。
特征选择时一个很需要创造力的过程,更多的依赖于直觉和专业知识,并且有很多现成的算法来进行特征的选择。
下面的树算法(Tree algorithms)计算特征的信息量:
from sklearn.ensemble import ExtraTreesClassifier model = ExtraTreesClassifier() print feature_matrix.shape # 原特征矩阵规模 feature_matrix = model.fit(feature_matrix, class_list).transform(feature_matrix) print feature_matrix.shape # 特征选择后 特征矩阵的规模
特征提取(Feature Extraction)
用TFIDF算法来计算特征词的权重值是表示当一个词在这篇文档中出现的频率越高,同时在其他文档中出现的次数越少,则表明该词对于表示这篇文档的区分能力越强,所以其权重值就应该越大。
from sklearn.feature_extraction.text import TfidfTransformer tfidf_transformer = TfidfTransformer() feature_matrix = tfidf_transformer.fit_transform(feature_matrix).toarray()
朴素贝叶斯(Naive Bayes)
朴素贝叶斯是一个很著名的机器学习算法,主要是根据训练样本的特征来计算各个类别的概率,在多分类问题上用的比较多。
from sklearn import metrics from sklearn.naive_bayes import GaussianNB # 构建朴素贝叶斯模型 model = GaussianNB() model.fit(feature_matrix, class_list) print model # 使用测试集进行测试(此处将训练集做测试集) expected = class_list predicted = model.predict(feature_matrix) # 输出测试效果 print metrics.classification_report(expected, predicted) print metrics.confusion_matrix(expected, predicted)
k近邻(k-Nearest Neighbours)
k近邻算法常常被用作是分类算法一部分,比如可以用它来评估特征,在特征选择上我们可以用到它。
from sklearn import metrics from sklearn.neighbors import KNeighborsClassifier # 构建knn模型 model = KNeighborsClassifier() model.fit(feature_matrix, class_list) print model # 使用测试集进行测试(此处将训练集做测试集) expected = class_list predicted = model.predict(feature_matrix) # 输出测试效果 print metrics.classification_report(expected, predicted) print metrics.confusion_matrix(expected, predicted)
决策树(Decision Tree)
分类与回归树(Classification and Regression Trees ,CART)算法常用于特征含有类别信息的分类或者回归问题,这种方法非常适用于多分类情况。
from sklearn import metrics from sklearn.tree import DecisionTreeClassifier # 构建决策数模型 model = DecisionTreeClassifier() model.fit(feature_matrix, class_list) print model # 使用测试集进行测试(此处将训练集做测试集) expected = class_list predicted = model.predict(feature_matrix) # 输出测试效果 print metrics.classification_report(expected, predicted) print metrics.confusion_matrix(expected, predicted)
更多关于Python相关内容感兴趣的读者可查看本站专题:《》、《》、《》、《》、《》及《》
希望本文所述对大家Python程序设计有所帮助。
上一篇: 火锅都是什么配菜,这些配菜不能少