分布式爬虫处理Redis里的数据操作步骤
程序员文章站
2022-06-28 10:51:22
存入mongodb
1.启动mongodb数据库:sudo mongod
2.执行下面程序:py2 process_youyuan_mongodb.py
#...
存入mongodb
1.启动mongodb数据库:sudo mongod
2.执行下面程序:py2 process_youyuan_mongodb.py
# process_youyuan_mongodb.py # -*- coding: utf-8 -*- import json import redis import pymongo def main(): # 指定redis数据库信息 rediscli = redis.strictredis(host='192.168.199.108', port=6379, db=0) # 指定mongodb数据库信息 mongocli = pymongo.mongoclient(host='localhost', port=27017) # 创建数据库名 db = mongocli['youyuan'] # 创建表名 sheet = db['beijing_18_25'] while true: # fifo模式为 blpop,lifo模式为 brpop,获取键值 source, data = rediscli.blpop(["youyuan:items"]) item = json.loads(data) sheet.insert(item) try: print u"processing: %(name)s <%(link)s>" % item except keyerror: print u"error procesing: %r" % item if __name__ == '__main__': main()
存入 mysql
1.启动mysql:mysql.server start(更平台不一样)
2.登录到root用户:mysql -uroot -p
3.创建数据库youyuan:create database youyuan;
4.切换到指定数据库:use youyuan
5.创建表beijing_18_25以及所有字段的列名和数据类型。
6.执行下面程序:py2 process_youyuan_mysql.py
#process_youyuan_mysql.py # -*- coding: utf-8 -*- import json import redis import mysqldb def main(): # 指定redis数据库信息 rediscli = redis.strictredis(host='192.168.199.108', port = 6379, db = 0) # 指定mysql数据库 mysqlcli = mysqldb.connect(host='127.0.0.1', user='power', passwd='xxxxxxx', db = 'youyuan', port=3306, use_unicode=true) while true: # fifo模式为 blpop,lifo模式为 brpop,获取键值 source, data = rediscli.blpop(["youyuan:items"]) item = json.loads(data) try: # 使用cursor()方法获取操作游标 cur = mysqlcli.cursor() # 使用execute方法执行sql insert语句 cur.execute("insert into beijing_18_25 (username, crawled, age, spider, header_url, source, pic_urls, monologue, source_url) values (%s, %s, %s, %s, %s, %s, %s, %s, %s )", [item['username'], item['crawled'], item['age'], item['spider'], item['header_url'], item['source'], item['pic_urls'], item['monologue'], item['source_url']]) # 提交sql事务 mysqlcli.commit() #关闭本次操作 cur.close() print "inserted %s" % item['source_url'] except mysqldb.error,e: print "mysql error %d: %s" % (e.args[0], e.args[1]) if __name__ == '__main__': main()
总结
以上所述是小编给大家介绍的分布式爬虫处理redis里的数据操作步骤,希望对大家有所帮助