Python从数据库读取大量数据批量写入文件的方法
程序员文章站
2023-01-13 14:54:33
使用机器学习训练数据时,如果数据量较大可能我们不能够一次性将数据加载进内存,这时我们需要将数据进行预处理,分批次加载进内存。
下面是代码作用是将数据从数据库读取出来分批次...
使用机器学习训练数据时,如果数据量较大可能我们不能够一次性将数据加载进内存,这时我们需要将数据进行预处理,分批次加载进内存。
下面是代码作用是将数据从数据库读取出来分批次写入txt文本文件,方便我们做数据的预处理和训练机器学习模型。
#%% import pymssql as mysqldb #这里是python3 如果你是python2.x的话,import mysqldb #数据库连接属性 hst = '188.10.34.18' usr = 'sa' passwd = 'p@ssw0rd' db = 'historytrace' #总共多少数据 alldata = 1674333 #每个批次多少条数据 dataofeach = 20000 #批次 batch = ceil(alldata/dataofeach) #文件名 global idctrl idctrl = 1 filename = str(idctrl)+'.txt' #连接数据库 conn = mysqldb.connect(host=hst,user=usr,password=passwd,database=db) cur=conn.cursor() while idctrl<batch: #读取数据库 sql = 'select longitude,latitude,altitude,velcomoflong,velcomoflati,aircraft,section,timeminus\ from dealed1 where id>=' + str(idctrl) + ' and id <' + str(idctrl + dataofeach) cur.execute(sql) rows=cur.fetchall() #写文件 f = open(filename,'w') f.writelines(str(rows)) #文件名加1 idctrl+=1 filename = str(idctrl)+'.txt' #关闭数据库连接 f.close() conn.close()
以上这篇python从数据库读取大量数据批量写入文件的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
上一篇: Lua使用C++中类的调用方法
下一篇: 周鸿祎:360将从2个方向部署人工智能