欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

12个很棒的Pandas和NumPy函数,让python数据分析事半功倍

程序员文章站 2022-03-28 20:15:25
大家都知道Pandas和NumPy函数很棒,它们在日常分析中起着重要的作用。没有这两个函数,人们将在这个庞大的数据分析和科学世界中迷失方向。 今天,小芯将分享12个很棒的Pandas和NumPy函数,这些函数将会让生活更便捷,让分析事半功倍。 在本文结尾,读者可以找到文中提到的代码的JupyterN ......

大家都知道pandas和numpy函数很棒,它们在日常分析中起着重要的作用。没有这两个函数,人们将在这个庞大的数据分析和科学世界中迷失方向。

今天,小芯将分享12个很棒的pandas和numpy函数,这些函数将会让生活更便捷,让分析事半功倍。

在本文结尾,读者可以找到文中提到的代码的jupyternotebook。

12个很棒的Pandas和NumPy函数,让python数据分析事半功倍

12个很棒的Pandas和NumPy函数,让python数据分析事半功倍

从numpy开始:

numpy是使用python进行科学计算的基本软件包。它包含以下内容:

  • 强大的n维数组对象
  • 复杂的(广播broadcasting)功能
  • 集成c / c++和fortran代码工具
  • 有用的线性代数,傅立叶变换和随机数功能

除明显的科学用途外,numpy是高效的通用数据多维容器,可以定义任意数据类型。这使numpy能够无缝且高速地与各种数据库进行集成。

1. allclose()

allclose() 用于匹配两个数组并且以布尔值形式输出。如果两个数组的项在公差范围内不相等,则返回false。这是检查两个数组是否相似的好方法,因为这一点实际很难手动实现。

array1 = np.array([0.12,0.17,0.24,0.29]) 
array2 = np.array([0.13,0.19,0.26,0.31])# with a tolerance of 0.1, it shouldreturn false: 
np.allclose(array1,array2,0.1) 
false# with a tolerance of 0.2, it should return true: 
np.allclose(array1,array2,0.2) 
true 

2. argpartition()

numpy的这个函数非常优秀,可以找到n最大值索引。输出n最大值索引,然后根据需要,对值进行排序。

x = np.array([12, 10, 12, 0, 6, 8, 9, 1, 16, 4, 6,0])index_val = np.argpartition(x, -4)[-4:] 
index_val 
array([1, 8, 2, 0], dtype=int64)np.sort(x[index_val]) 
array([10, 12, 12, 16]) 

3. clip()

clip() 用于将值保留在间隔的数组中。有时,需要将值保持在上限和下限之间。因此,可以使用numpy的clip()函数。给定一个间隔,该间隔以外的值都将被裁剪到间隔边缘。

x = np.array([3, 17, 14, 23, 2, 2, 6, 8, 1, 2, 16,0])np.clip(x,2,5) 
array([3, 5, 5, 5, 2, 2, 5, 5, 2, 2, 5, 2]) 

4. extract()

顾名思义,extract() 函数用于根据特定条件从数组中提取特定元素。有了该函数,还可以使用and和or等的语句。

# random integers 
array = np.random.randint(20, size=12) 
array 
array([ 0,  1,  8, 19, 16, 18, 10, 11,  2, 13, 14, 3])#  divide by 2 and check ifremainder is 1 
cond = np.mod(array, 2)==1 
cond 
array([false,  true, false,  true, false, false, false,  true, false, true, false,  true])# use extract to get the values 
np.extract(cond, array) 
array([ 1, 19, 11, 13,  3])# applycondition on extract directly 
np.extract(((array < 3) | (array > 15)), array) 
array([ 0,  1, 19, 16, 18,  2]) 

5. percentile()

percentile()用于计算沿指定轴的数组元素的第n个百分位数。

a = np.array([1,5,6,8,1,7,3,6,9])print("50thpercentile of a, axis = 0 : ",  
      np.percentile(a, 50, axis =0)) 
50th percentile of a, axis = 0 :  6.0b =np.array([[10, 7, 4], [3, 2, 1]])print("30th percentile of b, axis = 0 :",  
      np.percentile(b, 30, axis =0)) 
30th percentile of b, axis = 0 :  [5.13.5 1.9] 

6. where()

where() 用于从满足特定条件的数组中返回元素。它返回在特定条件下值的索引位置。这差不多类似于在sql中使用的where语句。请看以下示例中的演示。

y = np.array([1,5,6,8,1,7,3,6,9])# where y is greaterthan 5, returns index position 
np.where(y>5) 
array([2, 3, 5, 7, 8], dtype=int64),)# first will replace the values that matchthe condition, 
# second will replace the values that does not 
np.where(y>5, "hit", "miss") 
array(['miss', 'miss', 'hit', 'hit', 'miss', 'hit', 'miss', 'hit','hit'],dtype='<u4') 

接着来讲一讲神奇的pandas函数。

pandas

pandas是一个python软件包,提供快速、灵活和富有表现力的数据结构,旨在使处理结构化(表格,多维,潜在异构)的数据和时间序列数据既简单又直观。

pandas非常适合许多不同类型的数据:

  • 具有异构类型列的表格数据,例如在sql表或excel电子表格中
  • 有序和无序(不一定是固定频率)的时间序列数据。
  • 具有行和列标签的任意矩阵数据(同类型或异类)
  • 观察/统计数据集的任何其他形式。实际上,数据根本不需要标记,即可放入pandas数据结构。

以下是pandas的优势:

  • 轻松处理浮点数据和非浮点数据中的缺失数据(表示为nan)
  • 大小可变性:可以从dataframe和更高维的对象中插入和删除列
  • 自动和显式的数据对齐:在计算中,可以将对象显式对齐到一组标签,或者用户可以直接忽略标签,并让series,dataframe等自动对齐数据
  • 强大灵活的分组功能,可对数据集执行拆分-应用-合并操作,以汇总和转换数据
  • 轻松将其他python和numpy数据结构中的不规则的、索引不同的数据转换为dataframe对象
  • 大数据集的智能标签的切片,高级索引和子集化
  • 直观的合并和联接数据集
  • 数据集的灵活重塑和旋
  • 坐标轴的分层标签(每个刻度可能有多个标签)
  • 强大的io工具,用于从平面文件(csv和定界文件)、 excel文件,数据库加载数据,以及以超高速hdf5格式保存/加载数据
  • 特定于时间序列的功能:日期范围生成和频率转换、移动窗口统计、日期移位和滞后。

1. apply()

apply() 函数允许用户传递函数并将其应用于pandas序列中每个单一值。

# max minus mix lambda fn 
fn = lambda x: x.max() - x.min()# apply this on dframe that we've just createdabove 
dframe.apply(fn) 

2. copy()

copy()函数用于创建pandas对象的副本。将数据帧分配给另一个数据帧时,在另一个数据帧中进行更改,其值也会进行同步更改。为了避免出现上述问题,可以使用copy()函数。

# creating sample series 
data = pd.series(['india', 'pakistan', 'china', '*'])# assigning issuethat we face 
datadata1= data 
# change a value 
data1[0]='usa' 
# also changes value in old dataframe 
data# to prevent that, we use 
# creating copy of series 
new = data.copy()# assigning new values 
new[1]='changed value'# printing data 
print(new) 
print(data) 

3. read_csv(nrows=n)

12个很棒的Pandas和NumPy函数,让python数据分析事半功倍
来源:pexels

读者可能已经知道了read-csv函数的重要性。但即使不必要,大多数人仍会错误地读取整个.csv文件。假设未知10gb的.csv文件中的列和数据,在这种情况下读取整个.csv文件并非明智的决定,因为这会浪费内存和时间。可以仅从.csv中导入几行,然后根据需要继续操作。

import io 
import requests# i am using this online data set just to make things easier foryou guys 
url = "https://raw.github.com/vincentarelbundock/rdatasets/master/csv/datasets/airpassengers.csv" 
s = requests.get(url).content# read only first 10 rows 
df = pd.read_csv(io.stringio(s.decode('utf-8')),nrows=10 , index_col=0) 

4. map()

map()函数用于根据输入对应关系映射series的值。用于将序列(series)中的每个值替换为另一个值,该值可以从函数、字典或序列(series)中得出。

# create a dataframe 
dframe = pd.dataframe(np.random.randn(4, 3), columns=list('bde'),index=['india', 'usa', 'china', 'russia'])#compute a formatted string from eachfloating point value in frame 
changefn = lambda x: '%.2f' % x# make changes element-wise 
dframe['d'].map(changefn) 

5. isin()

isin() 函数用于过滤数据帧。isin() 有助于选择在特定列中具有特定(或多个)值的行。这是笔者见过的最有用的功能。

# using the dataframe we created for read_csv 
filter1 = df["value"].isin([112]) 
filter2 = df["time"].isin([1949.000000])df [filter1 & filter2] 

6. select_dtypes()

select_dtypes()函数基于dtypes列返回数据框的列的子集。设置此函数的参数,以包括具有某些特定数据类型的所有列;也可对其进行设置,以排除具有某些特定数据类型的所有列。

# we'll use the same dataframe that we used for read_csv 
framex = df.select_dtypes(include="float64")# returns only time column 

福利:

pivot_table()

pandas最神奇最有用的功能是pivot_table。如果你纠结于是否使用groupby,并想扩展其功能,那么不妨试试pivot-table。如果明白数据透视表在excel中的工作原理,那么一切就非常简单了。数据透视表中的级别将存贮在multiindex对象(分层索引)中,而该对象位于dataframe结果的索引和列上。

# create a sample dataframe 
school = pd.dataframe({'a': ['jay', 'usher', 'nicky', 'romero', 'will'], 
      'b': ['masters', 'graduate','graduate', 'masters', 'graduate'], 
      'c': [26, 22, 20, 23, 24]}) 
# lets create a pivot table to segregate students based on age and course 
table = pd.pivot_table(school, values ='a', index =['b', 'c'], 
                         columns =['b'], aggfunc = np.sum,fill_value="not available") 
  
table