Pandas处理超大规模数据
程序员文章站
2022-04-29 18:07:48
对于超大规模的csv文件,我们无法一下将其读入内存当中,只能分块一部分一部分的进行读取; 首先进行如下操作: ......
对于超大规模的csv文件,我们无法一下将其读入内存当中,只能分块一部分一部分的进行读取;
首先进行如下操作:
import pandas as pd reader = pd.read_csv('data/servicelogs', iterator=true)
分块,每一块是一个chunk,之后将chunk进行拼接;
loop = true chunksize = 100000 chunks = [] while loop: try: chunk = reader.get_chunk(chunksize) chunks.append(chunk) except stopiteration: loop = false print "iteration is stopped." df = pd.concat(chunks, ignore_index=true)
上一篇: java源码