当用python读取几十万行文本时,会出现什么状况?
程序员文章站
2022-06-11 16:57:40
前言本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。作者:accumulate_zhang 我在使用python读取几十万行的文件中的数据,并构造字典,列表等数据结构时,再访问字典,列表时,一般都会出现内存不够的问题,然后只能循环 ......
我在使用python读取几十万行的文件中的数据,并构造字典,列表等数据结构时,再访问字典,列表时,一般都会出现内存不够的问题,然后只能循环读取几百行或者一定数量的行数来循环操作。
-
keyword_list=[line.strip() for line in open("keywords.txt",'r')]
-
#f1=open("part_wiki_vec.txt",'r')
-
f1=open("wiki_vectors.txt")
-
f2=open("result.txt",'w')
-
i=0
-
-
-
content=f1.readlines()
-
while i<1150:
-
for line in content[300*i:300*(i+1)]:
-
line=line.strip().split(' ')
-
if line[0] in keyword_list:
-
wordvec=' '.join(line)
-
print wordvec
-
f2.write(wordvec)
-
#print line
-
i+=1
我是这样读取的?
应该还有很多好的方法,比如多线程等等。如果你还不是很明白或者正在学习,可以去小编的python交流.裙 :一久武其而而流一思(数字的谐音)转换下可以找到了,里面有最新python教程项目,一起交流进步!
做此记录只为了学习,o(∩_∩)o谢谢,不喜勿喷!