13个Pandas实用技巧,助你提高开发效率
程序员文章站
2022-03-02 12:52:54
原作:风控猎人整理:数据管道归纳整理了一些工作中常用到的pandas使用技巧,方便更高效地实现数据分析。1.计算变量缺失率df=pd.read_csv('titanic_train.csv')def...
原作:风控猎人
整理:数据管道
归纳整理了一些工作中常用到的pandas使用技巧,方便更高效地实现数据分析。
1.计算变量缺失率
df=pd.read_csv('titanic_train.csv') def missing_cal(df): """ df :数据集 return:每个变量的缺失率 """ missing_series = df.isnull().sum()/df.shape[0] missing_df = pd.dataframe(missing_series).reset_index() missing_df = missing_df.rename(columns={'index':'col', 0:'missing_pct'}) missing_df = missing_df.sort_values('missing_pct',ascending=false).reset_index(drop=true) return missing_df missing_cal(df)
如果需要计算样本的缺失率分布,只要加上参数axis=1.
2.获取分组里最大值所在的行方法
分为分组中有重复值和无重复值两种。无重复值的情况。
df = pd.dataframe({'sp':['a','b','c','d','e','f'], 'mt':['s1', 's1', 's2','s2','s2','s3'], 'value':[1,2,3,4,5,6], 'count':[3,2,5,10,10,6]}) df df.iloc[df.groupby(['mt']).apply(lambda x: x['count'].idxmax())]
先按mt列进行分组,然后对分组之后的数据框使用idxmax函数取出count最大值所在的列,再用iloc位置索引将行取出。有重复值的情况
df["rank"] = df.groupby("id")["score"].rank(method="min", ascending=false).astype(np.int64) df[df["rank"] == 1][["id", "class"]]
对id进行分组之后再对分数应用rank函数,分数相同的情况会赋予相同的排名,然后取出排名为1的数据。
3.多列合并为一行
df = pd.dataframe({'id_part':['a','b','c','d'], 'pred':[0.1,0.2,0.3,0.4], 'pred_class':['women','man','cat','dog'], 'v_id':['d1','d2','d3','d1']}) df.groupby(['v_id']).agg({'pred_class': [', '.join],'pred': lambda x: list(x), 'id_part': 'first'}).reset_index()
4.删除包含特定字符串所在的行
df = pd.dataframe({'a':[1,2,3,4], 'b':['s1', 'exp_s2', 's3','exps4'], 'c':[5,6,7,8], 'd':[3,2,5,10]}) df[df['b'].str.contains('exp')]
5.组内排序
df = pd.dataframe([['a',1],['a',3],['a',2],['b',5],['b',9]], columns = ['name','score'])
介绍两种高效地组内排序的方法。
df.sort_values(['name','score'], ascending = [true,false]) df.groupby('name').apply(lambda x: x.sort_values('score', ascending=false)).reset_index(drop=true)
6.选择特定类型的列
drinks = pd.read_csv('data/drinks.csv') # 选择所有数值型的列 drinks.select_dtypes(include=['number']).head() # 选择所有字符型的列 drinks.select_dtypes(include=['object']).head() drinks.select_dtypes(include=['number','object','category','datetime']).head() # 用 exclude 关键字排除指定的数据类型 drinks.select_dtypes(exclude=['number']).head()
7.字符串转换为数值
df = pd.dataframe({'列1':['1.1','2.2','3.3'], '列2':['4.4','5.5','6.6'], '列3':['7.7','8.8','-']}) df df.astype({'列1':'float','列2':'float'}).dtypes
用这种方式转换第三列会出错,因为这列里包含一个代表 0 的下划线,pandas 无法自动判断这个下划线。为了解决这个问题,可以使用 to_numeric() 函数来处理第三列,让 pandas 把任意无效输入转为 nan。
df = df.apply(pd.to_numeric, errors='coerce').fillna(0)
8.优化 dataframe 对内存的占用
方法一:只读取切实所需的列,使用usecols参数
cols = ['beer_servings','continent'] small_drinks = pd.read_csv('data/drinks.csv', usecols=cols)
方法二:把包含类别型数据的 object 列转换为 category 数据类型,通过指定 dtype 参数实现。
dtypes ={'continent':'category'} smaller_drinks = pd.read_csv('data/drinks.csv',usecols=cols, dtype=dtypes)
9.根据最大的类别筛选 dataframe
movies = pd.read_csv('data/imdb_1000.csv') counts = movies.genre.value_counts() movies[movies.genre.isin(counts.nlargest(3).index)].head()
10.把字符串分割为多列
df = pd.dataframe({'姓名':['张 三','李 四','王 五'], '所在地':['北京-东城区','上海-黄浦区','广州-白云区']}) df df.姓名.str.split(' ', expand=true)
11.把 series 里的列表转换为 dataframe
df = pd.dataframe({'列1':['a','b','c'],'列2':[[10,20], [20,30], [30,40]]}) df df_new = df.列2.apply(pd.series) pd.concat([df,df_new], axis='columns')
12.用多个函数聚合
orders = pd.read_csv('data/chipotle.tsv', sep='\t') orders.groupby('order_id').item_price.agg(['sum','count']).head()
13.分组聚合
import pandas as pd df = pd.dataframe({'key1':['a', 'a', 'b', 'b', 'a'], 'key2':['one', 'two', 'one', 'two', 'one'], 'data1':np.random.randn(5), 'data2':np.random.randn(5)}) df for name, group in df.groupby('key1'): print(name) print(group) dict(list(df.groupby('key1')))
通过字典或series进行分组
people = pd.dataframe(np.random.randn(5, 5), columns=['a', 'b', 'c', 'd', 'e'], index=['joe', 'steve', 'wes', 'jim', 'travis']) mapping = {'a':'red', 'b':'red', 'c':'blue', 'd':'blue', 'e':'red', 'f':'orange'} by_column = people.groupby(mapping, axis=1) by_column.sum()
以上就是13个pandas实用技巧,助你提高开发效率的详细内容,更多关于pandas实用技巧的资料请关注其它相关文章!