欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Python Pandas库的学习(二)

程序员文章站 2022-07-02 16:59:03
今天我们继续讲下Python中一款数据分析很好的库。Pandas的学习 接着上回讲到的,如果有人听不懂,麻烦去翻阅一下我前面讲到的Pandas学习(一) 如果我们在数据中,想去3,4,5这几行数据,那么我们怎么取呢? 可以看到,这种取法跟Python中,切片操作一样。 如果我想去单独某几条数据,只需 ......

今天我们继续讲下python中一款数据分析很好的库。pandas的学习

接着上回讲到的,如果有人听不懂,麻烦去翻阅一下我前面讲到的pandas学习(一)

如果我们在数据中,想去3,4,5这几行数据,那么我们怎么取呢?

food.loc[3:6]

Python Pandas库的学习(二)

可以看到,这种取法跟python中,切片操作一样。

如果我想去单独某几条数据,只需要传入index值即可

food.loc[[2,5,10]]

 Python Pandas库的学习(二)

 如果我先想不通过行去取数据,想通过列去取数据的话,我们该怎么做呢??

我们可以通过列名去拿取数据

col_nb = food["ndb_no"]
print(col_nb)

Python Pandas库的学习(二)

可以看到,我们取到了第一列的数据出来。

那么我们想取两列数据出来,我们应该怎么操作呢?

方法跟上面一样,将列名加到里面,组成一个list列表。

col_2 = ["zinc_(mg)","copper_(mg)"]
col_2_all = food[col_2]
print(col_2_all)

 

Python Pandas库的学习(二)

来我们看下数据上面,有些列名是带了单位的,那么我们怎么选择其中某几个一样单位的列呢?

Python Pandas库的学习(二)

 我们先要取到全部的列名,然后将列名中带有单位(g)的列名取出,并单独放到一个列表中,最后在取这个列表中的列的数据即可

col_names = food.columns.tolist()
print(col_names)
gram_columns = []
for c in col_names:
    if c.endswith("(g)"):
        gram_columns.append(c)
gram_df = food[gram_columns]
print(gram_df.head(3))

这些都是些简单的操作,

Python Pandas库的学习(二)

再比如说,我们想进行一些加减乘除的操作。

我想把单位为mg的数据,转换成g的数据,这里的做法,就跟numpy是类似的。 

print(food["iron_(mg)"])
div_1000 = food["iron_(mg)"]/1000
print(div_1000)

Python Pandas库的学习(二)

我们在对某个数据上进行操作,即可得到我们想要的结果。

water_energy = food["water_(g)"]*food["energ_kcal"]

对应位置的乘法操作,需要保证的是,维度要相同才可以!

water_energy = food["water_(g)"]*food["energ_kcal"]
water_energy = food["water_(g)"]*food["energ_kcal"]
iron_grams = food["iron_(mg)"]/1000
print(food.shape)
food["iron_(g)"]=iron_grams
print(food.shape)

Python Pandas库的学习(二)

上一段代码可以看到,我们把一列名称的值,进行单位转换,把mg转换为g,然后新建了一列数据

将这列数据放到数据集中,之前打印出来的数据维度,8618个样本,和36个属性值。后面打印的

是37个属性值,也就是我们将新的属性值,放入到原来的数据值中了!前提是,其中的维度要对应上才可以。

weighted_protein = food["protein_(g)"]*2
weighted_fat =-0.75* food["lipid_tot_(g)"]
initial_rating = weighted_protein + weighted_fat

比如说这些运算操作, 维度一样,相当于对应位置进行运算。

跟numpy一样,我们也有一些别方法,求最大值,最小值,平均值等等

Python Pandas库的学习(二)

 方式基本上跟numpy类似。

今天就先讲到这里。感谢大家的阅读!感谢~~