欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Python进行数据科学工作的简单入门教程

程序员文章站 2022-06-29 08:58:21
python拥有着极其丰富且稳定的数据科学工具环境。遗憾的是,对不了解的人来说这个环境犹如丛林一般(cue snake joke)。在这篇文章中,我会一步一步指导你怎么进入...

python拥有着极其丰富且稳定的数据科学工具环境。遗憾的是,对不了解的人来说这个环境犹如丛林一般(cue snake joke)。在这篇文章中,我会一步一步指导你怎么进入这个pydata丛林。

你可能会问,很多现有的pydata包推荐列表怎么样?我觉得对新手来说提供太多的选择可能会受不了。因此这里不会提供推荐列表,我要讨论的范围很窄,只集中于10%的工具,但它们可以完成你90%的工作。当你掌握这些必要的工具后,你就可以浏览pydata工具的长列表了,选择自己接下来要使用的。

值得一提的是,我介绍的这几个工具可以让你完成一个数据科学家日常的绝大部分工作了(比如数据输入输出、数据再加工以及数据分析)。
安装

经常会有人过来和我说“我听说python很擅长处理数据科学,所以我想学一下。但是安装python和所有其他模块就耗费了两天时间”。安装python是很合理的,因为你要用它,但是当你不知道真正需要哪些其他工具时就手动安装所有的pydata工具,这确实是一项大工程啊。所以我强烈反对这样做。

幸运的是,continuum的一伙人创建了python发行版anaconda,它包含了大部分pydata工具包。默认没有的模块也可以轻松地通过gui安装。这个发行版适用于所有主流平台。这样无需耗费两天安装了,可以直接使用它。
ipython notebook

python安装后,大部分人直接启动并开始学习。这很合理,但遗憾的是又大错特错了。我没见过直接在python命令行中运行python科学计算环境的(因人而异)。相反,可以使用ipython,特别是ipython notebook,它们都是特别强大的python shell,被广泛地使用在pydata领域中。我强烈建议你直接使用ipython notebook(ipynb)而不用为其他事所烦扰,你不会后悔的。简而言之,ipynb是一个通过浏览器访问的python shell。它允许你混合编辑代码、文本和图形(甚至是交互对象)。本文就是在ipynb中完成的。在python的会议中,几乎所有的演讲都使用ipython notebook。anaconda中预装了ipynb,可以直接使用。下面看下它是什么样的:

in [1]:

print('hello world')
hello world

ipynb发展很快——每次在会议中听(ipynb的)核心开发人员演讲时,我总被他们想出的新功能所震撼。要了解它的一些先进功能,可以看看下面这个关于ipython小工具的简短教程。这些小工具可以让你使用滑动条交互地控制绘图:

in [1]:
 

from ipython.display import youtubevideo
youtubevideo('wxvx54ax47s') # 没错,它也可以嵌入youtube视频

out[1]:
6. ipython widgets – ipython notebook tutorial
pandas

通常,大家会建议你先学习numpy(读作num-pie,不是num-pee),一个支持多维数组的库。几年前肯定得这样,但现在我几乎不使用numpy。因为numpy越来越成为一个被其他库所使用核心库,这些库通常具有更优雅的接口。因此,pandas成为了处理数据所主要使用的库。它可以以各种格式(包括数据库)输入输出数据、执行join以及其他sql类似的功能来重塑数据、熟练地处理缺失值、支持时间序列、拥有基本绘图功能和统计功能,等等还有很多。对它所有的特性来说,肯定有一个学习曲线,但我强烈去建议你先看一下大部分文档。你所投入的时间将使你的数据再加工过程更高效,这会带来上千倍的回报。这里有一些快速技巧会让你胃口大开的:
in [18]:
 

import pandas as pd
 
df = pd.dataframe({ 'a' : 1.,
          'b' : pd.timestamp('20130102'),
          'c' : pd.series(1, index=list(range(4)), dtype='float32'),
          'd' : pd.series([1, 2, 1, 2], dtype='int32'),
          'e' : pd.categorical(["test", "train", "test", "train"]),
          'f' : 'foo' })

in [19]:

out[19]:

 a b c d e f
0 1 2013-01-02 1 1 test foo
1 1 2013-01-02 1 2 train foo
2 1 2013-01-02 1 1 test foo
3 1 2013-01-02 1 2 train foo

可以通过列名来获取某一列:

in [17]:
 
df.b
out[17]:
 
0  2013-01-02
1  2013-01-02
2  2013-01-02
3  2013-01-02
name: b, dtype: datetime64[ns]
 
compute the sum of d for each category in e:
按e分类,每类对d求和:
in [21]:
 
df.groupby('e').sum().d
out[21]:
 
e
test   2
train  4
name: d, dtype: int32

使用numpy(或者笨重的matlab)达到同样的目的会很麻烦。

还有非常多的用法。不相信的话可以看一下这个教程“”。上面的例子也来自这个教程。
seaborn

matplotlib是python主要的绘图库。但是,我不建议你直接使用它,原因与开始不推荐你使用numpy是一样的。虽然matplotlib很强大,它本身就很复杂,你的图经过大量的调整才能变精致。因此,作为替代,我推荐你一开始使用seaborn。seaborn本质上使用matplotlib作为核心库(就像pandas对numpy一样)。我将简短地描述下seaborn的优点。具体来说,它可以:

  1.     默认情况下就能创建赏心悦目的图表。(只有一点,默认不是)
  2.     创建具有统计意义的图
  3.     能理解pandas的dataframe类型,所以它们一起可以很好地工作。

虽然anaconda预装了pandas,却没安装seaborn。可以通过conda install seaborn轻松地安装。
具有统计意义的图
in [5]:
 

%matplotlib inline # ipython magic to create plots within cells

in [7]:
 

import seaborn as sns
 
# load one of the data sets that come with seaborn
tips = sns.load_dataset("tips")
 
sns.jointplot("total_bill", "tip", tips, kind='reg');

Python进行数据科学工作的简单入门教程

如你所见,仅通过一行代码,我们就创建了一个漂亮复杂的统计图,其中包含拥有置信区间的最拟合回归直线、边界图,以及相关系数。使用matplotlib重新绘制这幅图的话需要相当多的(丑陋)代码,包括调用scipy执行线性回归并手动利用线性回归方程绘制直线(我甚至想不出怎么在边界绘图,怎么计算置信区间)。上面和下面的例子都摘自教程“”。
与pandas的dataframe很好地工作

数据有自己的结构。通常我们感兴趣的包含不同的组或类(这种情况下使用pandas中groupby的功能会让人感到很神奇)。比如tips(小费)的数据集是这样的:
in [9]:
 

tips.head()
out[9]:
 total_bill tip sex smoker day time size
0 16.99 1.01 female no sun dinner 2
1 10.34 1.66 male no sun dinner 3
2 21.01 3.50 male no sun dinner 3
3 23.68 3.31 male no sun dinner 2
4 24.59 3.61 female no sun dinner 4

我们可能想知道吸烟者给的小费是否与不吸烟的人不同。没有seaborn的话,这需要使用pandas的groupby功能,并通过复杂的代码绘制线性回归直线。使用seaborn的话,我们可以给col参数提供列名,按我们的需要划分数据:
in [11]:
 

sns.lmplot("total_bill", "tip", tips, col="smoker");

Python进行数据科学工作的简单入门教程

很整洁吧?

随着你研究得越深,你可能想更细粒度地控制这些图表的细节。因为seaborn只是调用了matplotlib,那时你可能会想学习这个库。然而,对绝大部分工作来说我还是喜欢使用seaborn。
总结

这篇文章的想法是通过提供部分包来最大化新手使用python处理数据科学的效率。