Pandas处理超大规模数据
程序员文章站
2022-10-08 20:16:09
对于超大规模的csv文件,我们无法一下将其读入内存当中,只能分块一部分一部分的进行读取; 首先进行如下操作: ......
对于超大规模的csv文件,我们无法一下将其读入内存当中,只能分块一部分一部分的进行读取;
首先进行如下操作:
import pandas as pd reader = pd.read_csv('data/servicelogs', iterator=true)
分块,每一块是一个chunk,之后将chunk进行拼接;
loop = true chunksize = 100000 chunks = [] while loop: try: chunk = reader.get_chunk(chunksize) chunks.append(chunk) except stopiteration: loop = false print "iteration is stopped." df = pd.concat(chunks, ignore_index=true)
上一篇: Python 闭包、迭代器、生成器
下一篇: 爬虫多线程高效高速爬取图片
推荐阅读
-
获取Codeigniter数据库查询的记录里的对象的字段值,该怎么处理
-
jQuery中的常用数据处理用法实例汇总
-
第4章 数据处理-php字符串的处理-郑阿奇(续)_php入门_脚本之家
-
[SQL Server]非域环境下,配置数据库镜像时的1418错误处理.
-
【Web API系列教程】3.9 — 实战:处理数据(添加新条目到数据库)
-
Pandas 稀疏数据结构的实现
-
Python Pandas模块实现数据的统计分析的方法
-
SAE的mysql数据库预定义SAE_MYSQL_HOST_M 等在那里定义了?该如何处理
-
PHP 批处理 处理大数据 长时间处理_PHP教程
-
设置 MySql 数据同步及故障处理