强悍的Python读取大文件的解决方案
程序员文章站
2023-11-25 17:05:40
python 环境下文件的读取问题,请参见拙文 python基础之文件读取的讲解
这是一道著名的 python 面试题,考察的问题是,python 读取大文件和一般规模的...
python 环境下文件的读取问题,请参见拙文 python基础之文件读取的讲解
这是一道著名的 python 面试题,考察的问题是,python 读取大文件和一般规模的文件时的区别,也即哪些接口不适合读取大文件。
1. read() 接口的问题
f = open(filename, 'rb') f.read()
我们来读取 1 个 nginx 的日至文件,规模为 3gb 大小。read() 方法执行的操作,是一次性全部读入内存,显然会造成:
memoryerror
...
也即会发生内存溢出。
2. 解决方案:转换接口
- (1)readlines() :读取全部的行,构成一个 list,实践表明还是会造成内存的问题;
for line in f.reanlines(): ...
- (2)readline():每次读取一行,
while true: line = f.readline() if not line: break
- (3)read(1024):重载,指定每次读取的长度
while true: block = f.read(1024) if not block: break
3. 真正 pythonic 的方法
真正 pythonci 的方法,使用 with 结构:
with open(filename, 'rb') as f: for line in f: <do something with the line>
对可迭代对象 f,进行迭代遍历:for line in f
,会自动地使用缓冲io(buffered io)以及内存管理,而不必担心任何大文件的问题。
there should be one – and preferably only one – obvious way to do it.
reference
how to read large file, line by line in python
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对的支持。如果你想了解更多相关内容请查看下面相关链接