requests模块 高级应用
程序员文章站
2022-06-01 12:08:05
[TOC] requests模块 高级应用 HttpConnectinPool 问题解决 IP代理 简单使用代理 爬虫代码使用代理 浏览器设置代理 代理池 代理池的作用 简单实现一个代理池 构建一个代理池 cookie的处理 爬取雪球网首页新闻信息 https://xueqiu.com/ 爬取过程中 ......
requests模块 高级应用
httpconnectinpool 问题解决
- httpconnectinpool: - 原因: - 1.短时间内发起了高频的请求导致ip被禁 - 2.http连接池中的连接资源被耗尽 - 解决: - 1.使用代理 - 2.headers中加入conection:“close”
ip代理
- 代理:代理服务器,可以接受请求然后将其转发。 - 匿名度 - 高匿:接收方,啥也不知道 - 匿名:接收方知道你使用了代理,但是不知道你的真实ip - 透明:接收方知道你使用了代理并且知道你的真实ip - 类型: - http - https - 免费代理: - 全网代理ip www.goubanjia.com - 快代理 https://www.kuaidaili.com/ - 西祠代理 https://www.xicidaili.com/nn/ - 代理精灵 http://http.zhiliandaili.cn/
简单使用代理
- 代理服务器 - 进行请求转发 - 代理ip:port作用到get、post方法的proxies = {'http':'ip:port'}中 - 代理池(列表)
爬虫代码使用代理
import requests headers = { 'user-agent':'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/76.0.3809.132 safari/537.36' } url = 'https://www.baidu.com/s?wd=ip' page_text = requests.get(url,headers=headers,proxies={'https':'36.111.140.6:8080'}).text with open('ip.html','w',encoding='utf-8') as fp: fp.write(page_text)
浏览器设置代理
代理池
代理池的作用
解决短时间内频繁爬取统一网站导致ip*的情况,具体工作机制:从各大代理网站抓取免费ip, 去重后以有序集合的方式保存到redis中,定时检测ip有效性、根据自己设定的分数规则进行优先级更改并删除分数为零 (无效)的ip 提供代理接口供爬虫工具使用.
简单实现一个代理池
#代理池:列表 import random #字典都是网上找的代理ip proxy_list = [ {'https':'121.231.94.44:8888'}, {'https':'131.231.94.44:8888'}, {'https':'141.231.94.44:8888'} ] #指定url url = 'https://www.baidu.com/s?wd=ip' #proxies=random.choice(proxy_list) 使用代理池 page_text = requests.get(url,headers=headers,proxies=random.choice(proxy_list)).text with open('ip.html','w',encoding='utf-8') as fp: fp.write(page_text)
构建一个代理池
import random import requests from lxml import etree headers = { 'user-agent':'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/76.0.3809.132 safari/537.36', 'connection':"close" } #从代理精灵中提取代理ip ip_url = 'http://t.11jsq.com/index.php/api/entry?method=proxyserver.generate_api_url&packid=1&fa=0&fetch_key=&groupid=0&qty=4&time=1&pro=&city=&port=1&format=html&ss=5&css=&dt=1&specialtxt=3&specialjson=&usertype=2' page_text = requests.get(ip_url,headers=headers).text tree = etree.html(page_text) ip_list = tree.xpath('//body//text()') #爬取西祠代理 url = 'https://www.xicidaili.com/nn/%d' proxy_list_http = [] proxy_list_https = [] for page in range(1,20): new_url = format(url%page) ip_port = random.choice(ip_list) page_text = requests.get(new_url,headers=headers,proxies={'https':ip_port}).text tree = etree.html(page_text) #tbody不可以出现在xpath表达式中 tr_list = tree.xpath('//*[@id="ip_list"]//tr')[1:] for tr in tr_list: ip = tr.xpath('./td[2]/text()')[0] port = tr.xpath('./td[3]/text()')[0] t_type = tr.xpath('./td[6]/text()')[0] ips = ip+':'+port if t_type == 'http': dic = { t_type: ips } proxy_list_http.append(dic) else: dic = { t_type:ips } proxy_list_https.append(dic) print(len(proxy_list_http),len(proxy_list_https)) #检测 (这里可以进行持久化储存) for ip in proxy_list_http: response = requests.get('https://www/sogou.com',headers=headers,proxies={'https':ip}) if response.status_code == '200': print('检测到了可用ip')
cookie的处理
手动处理:将cookie封装到headers中 自动处理:session对象。可以创建一个session对象,改对象可以像requests一样进行请求发送。 不同之处在于如果在使用session进行请求发送的过程中产生了cookie,则cookie会被自动存储在session对象中。
爬取雪球网首页新闻信息 https://xueqiu.com/
爬取过程中遇到问题
import requests headers = { 'user-agent':'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/76.0.3809.132 safari/537.36', } url = 'https://xueqiu.com/v4/statuses/public_timeline_by_category.json?since_id=-1&max_id=20349203&count=15&category=-1' page_text = requests.get(url=url,headers=headers).json() print(page_text) #执行结果 {'error_description': '遇到错误,请刷新页面或者重新登录帐号后再试', 'error_uri': '/v4/statuses/public_timeline_by_category.json', 'error_data': none, 'error_code': '400016'} #分析发现,正常的浏览器请求携带有cookie数据
解决办法手动添加cookie信息 (不推荐,因为有的网站cookie可能是变动的,这样就写死了)
#对雪球网中的新闻数据进行爬取https://xueqiu.com/ import requests headers = { 'user-agent':'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/76.0.3809.132 safari/537.36', 'cookie':'aliyungf_tc=aqaaaal2aa+kkgkatxdwe3jmsy226y+n; acw_tc=2760822915681668126047128e605abf3a5518432dc7f074b2c9cb26d0aa94; xq_a_token=75661393f1556aa7f900df4dc91059df49b83145; xq_r_token=29fe5e93ec0b24974bdd382ffb61d026d8350d7d; u=121568166816578; device_id=24700f9f1986800ab4fcc880530dd0ed', } url = 'https://xueqiu.com/v4/statuses/public_timeline_by_category.json?since_id=-1&max_id=20349203&count=15&category=-1' page_text = requests.get(url=url,headers=headers).json() print(page_text) #执行结果 {'list': [{'id': 20349202, 'category': 0, 'data': '{"id":132614531,"title":"狼来了!今天,中囯电信行业打响第一枪! 流量费用要降价了!","description":"狼,终究来了! 刚刚传来大消息,中国工信部正式宣布:英国电信(bt) 获得了在中国全国性经营通信的牌照。 随后,英国电信也在第一时间证实这一消息!他们兴高采烈地表示: 取得牌照,意味着英国电信在中国迈出重要的一步! 是的,你没有看错:英国电信!这是英国最大的电信公司, 也是一家有着超过...","target":"/3583653389/132614531","reply_count":75,"retweet_count":7,"topic_title":"狼来了! 今天,中囯电信行业打响第一枪!流量费用要降价了!","topic_desc":"狼,终究来了! 刚刚传来大消息, 中国工信部正式宣布:英...}.....省略
自动获取cookie(推荐,cookie是变化的也没问题)
import requests #创建session对象 session = requests.session() session.get('https://xueqiu.com',headers=headers)#会自动把请求中的cookie信息携带上 headers = { 'user-agent':'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/76.0.3809.132 safari/537.36', } url = 'https://xueqiu.com/v4/statuses/public_timeline_by_category.json?since_id=-1&max_id=20349203&count=15&category=-1' page_text = session.get(url=url,headers=headers).json() print(page_text) #执行结果 {'list': [{'id': 20349202, 'category': 0, 'data': '{"id":132614531,"title":"狼来了!今天,中囯电信行业打响第一枪! 流量费用要降价了!","description":"狼,终究来了! 刚刚传来大消息,中国工信部正式宣布:英国电信(bt) 获得了在中国全国性经营通信的牌照。 随后,英国电信也在第一时间证实这一消息!他们兴高采烈地表示: 取得牌照,意味着英国电信在中国迈出重要的一步! 是的,你没有看错:英国电信!这是英国最大的电信公司, 也是一家有着超过...","target":"/3583653389/132614531","reply_count":75,"retweet_count":7,"topic_title":"狼来了! 今天,中囯电信行业打响第一枪!流量费用要降价了!","topic_desc":"狼,终究来了! 刚刚传来大消息, 中国工信部正式宣布:英...}......省略
页面中验证码识别
识别该网站验证码 https://so.gushiwen.org/user/login.aspx?from=http://so.gushiwen.org/user/collect.aspx
解决办法
验证码的识别推荐平台 - 超级鹰:http://www.chaojiying.com/about.html (这里我们使用超级鹰) - 注册:(用户中心身份) - 登陆: - 创建一个软件:899370 - 下载示例代码 - 云打码:http://www.yundama.com/
实现过程
识别网页验证码
#超级鹰代码 import requests from hashlib import md5 class chaojiying_client(object): def __init__(self, username, password, soft_id): self.username = username password = password.encode('utf8') self.password = md5(password).hexdigest() self.soft_id = soft_id self.base_params = { 'user': self.username, 'pass2': self.password, 'softid': self.soft_id, } self.headers = { 'connection': 'keep-alive', 'user-agent': 'mozilla/4.0 (compatible; msie 8.0; windows nt 5.1; trident/4.0)', } def postpic(self, im, codetype): """ im: 图片字节 codetype: 题目类型 参考 http://www.chaojiying.com/price.html """ params = { 'codetype': codetype, } params.update(self.base_params) files = {'userfile': ('ccc.jpg', im)} r = requests.post('http://upload.chaojiying.net/upload/processing.php', data=params, files=files, headers=self.headers) return r.json() def reporterror(self, im_id): """ im_id:报错题目的图片id """ params = { 'id': im_id, } params.update(self.base_params) r = requests.post('http://upload.chaojiying.net/upload/reporterror.php', data=params, headers=self.headers) return r.json() #爬虫代码 #识别古诗文网中的验证码 from lxml import etree #识别古诗文网中的验证码 def tranformimgdata(imgpath,t_type):#调用超级鹰 chaojiying = chaojiying_client('bobo3280948', 'bobo3284148', '899370')#超级鹰账户 密码 软件id im = open(imgpath, 'rb').read() return chaojiying.postpic(im, t_type)['pic_str'] headers = { 'user-agent':'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/76.0.3809.132 safari/537.36', } url = 'https://so.gushiwen.org/user/login.aspx?from=http://so.gushiwen.org/user/collect.aspx' page_text = requests.get(url,headers=headers).text tree = etree.html(page_text) img_src = 'https://so.gushiwen.org'+tree.xpath('//*[@id="imgcode"]/@src')[0] img_data = requests.get(img_src,headers=headers).content with open('./code.jpg','wb') as fp: fp.write(img_data) yzm = tranformimgdata('./code.jpg',1004)#保存的验证码图片地址 验证码对应超级鹰的验证码类型对应号 print(yzm) #执行结果 成功解析验证码 d145
模拟登录
import requests from hashlib import md5 class chaojiying_client(object): def __init__(self, username, password, soft_id): self.username = username password = password.encode('utf8') self.password = md5(password).hexdigest() self.soft_id = soft_id self.base_params = { 'user': self.username, 'pass2': self.password, 'softid': self.soft_id, } self.headers = { 'connection': 'keep-alive', 'user-agent': 'mozilla/4.0 (compatible; msie 8.0; windows nt 5.1; trident/4.0)', } def postpic(self, im, codetype): """ im: 图片字节 codetype: 题目类型 参考 http://www.chaojiying.com/price.html """ params = { 'codetype': codetype, } params.update(self.base_params) files = {'userfile': ('ccc.jpg', im)} r = requests.post('http://upload.chaojiying.net/upload/processing.php', data=params, files=files, headers=self.headers) return r.json() def reporterror(self, im_id): """ im_id:报错题目的图片id """ params = { 'id': im_id, } params.update(self.base_params) r = requests.post('http://upload.chaojiying.net/upload/reporterror.php', data=params, headers=self.headers) return r.json() from lxml import etree #识别古诗文网中的验证码 def tranformimgdata(imgpath,t_type):#调用超级鹰 chaojiying = chaojiying_client('bobo328410948', 'bobo328410948', '899370') im = open(imgpath, 'rb').read() return chaojiying.postpic(im, t_type)['pic_str'] headers = { 'user-agent':'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/76.0.3809.132 safari/537.36', } #模拟登陆 s = requests.session() url = 'https://so.gushiwen.org/user/login.aspx?from=http://so.gushiwen.org/user/collect.aspx' page_text = s.get(url,headers=headers).text tree = etree.html(page_text) img_src = 'https://so.gushiwen.org'+tree.xpath('//*[@id="imgcode"]/@src')[0] img_data = s.get(img_src,headers=headers).content with open('./code.jpg','wb') as fp: fp.write(img_data) #动态获取变化的请求参数 __viewstate = tree.xpath('//*[@id="__viewstate"]/@value')[0] __viewstategenerator = tree.xpath('//*[@id="__viewstategenerator"]/@value')[0] code_text = tranformimgdata('./code.jpg',1004) login_url = 'https://so.gushiwen.org/user/login.aspx?from=http%3a%2f%2fso.gushiwen.org%2fuser%2fcollect.aspx' data = { '__viewstate': __viewstate, '__viewstategenerator': __viewstategenerator, 'from':'http://so.gushiwen.org/user/collect.aspx', 'email': 'www.zhangbowudi@qq.com', 'pwd': 'bobo328410948', 'code': code_text, 'denglu': '登录', } page_text = s.post(url=login_url,headers=headers,data=data).text with open('login.html','w',encoding='utf-8') as fp: fp.write(page_text) #动态变化的请求参数 通常情况下动态变化的请求参数都会被隐藏在前台页面源码中
使用 multiprocessing.dummy pool 线程池
模拟请求
#未使用线程池(模拟请求) import time from time import sleep start = time.time() urls = [ 'www.1.com', 'www.2.com', 'www.3.com', ] def get_request(url): print('正在访问:%s'%url) sleep(2) print('访问结束:%s'%url) for url in urls: get_request(url) print('总耗时:',time.time()-start) #执行结果 正在访问:www.1.com 访问结束:www.1.com 正在访问:www.2.com 访问结束:www.2.com 正在访问:www.3.com 访问结束:www.3.com 总耗时: 6.000494718551636 #使用线程池 (模拟请求) import time from time import sleep from multiprocessing.dummy import pool start = time.time() urls = [ 'www.1.com', 'www.2.com', 'www.3.com', ] def get_request(url): print('正在访问:%s' % url) sleep(2) print('访问结束:%s' % url) pool = pool(3) pool.map(get_request, urls) print('总耗时:', time.time() - start) #执行结果 正在访问:www.1.com 正在访问:www.2.com 正在访问:www.3.com 访问结束:www.2.com 访问结束:www.3.com 访问结束:www.1.com 总耗时: 2.037109613418579
简单使用flask模拟server端 进行测试
#server from flask import flask from time import sleep app = flask(__name__) @app.route('/index') def index(): sleep(2) return 'hello' if __name__ == '__main__': app.run() #爬虫请求代码 import time import requests from multiprocessing.dummy import pool start = time.time() urls = [ 'http://localhost:5000/index', 'http://localhost:5000/index', 'http://localhost:5000/index', ] def get_request(url): page_text = requests.get(url).text print(page_text) pool = pool(3) pool.map(get_request, urls) print('总耗时:', time.time() - start) #执行结果 hello hello hello 总耗时: 3.0322463512420654
单线程+多任务异步协程
- 协程 - 在函数(特殊的函数)定义的时候,如果使用了async修饰的话,则改函数调用后会返回一个协程对象,并且函数内部的实现语句不会被立即执行 - 任务对象 - 任务对象就是对协程对象的进一步封装。任务对象==高级的协程对象==特殊的函数 - 任务对象时必须要注册到事件循环对象中 - 给任务对象绑定回调:爬虫的数据解析中 - 事件循环 - 当做是一个容器,容器中必须存放任务对象。 - 当启动事件循环对象后,则事件循环对象会对其内部存储任务对象进行异步的执行。 - aiohttp:支持异步网络请求的模块
简单了解 asyncio异步协程函数
import asyncio def callback(task):#作为任务对象的回调函数 print('i am callback and ',task.result())#task.result()接受特殊函数的返回值 async def test(): #特殊函数 print('i am test()') return 'bobo' c = test()#c为协程对象 #封装了一个任务对象 task = asyncio.ensure_future(c) #绑定回调函数 task.add_done_callback(callback) #创建一个事件循环的对象 loop = asyncio.get_event_loop() #将任务对象注册到事件循环中 loop.run_until_complete(task) #执行结果 i am test() i am callback and bobo
协程+多任务(模拟请求)
import time import asyncio start = time.time() # 在特殊函数内部的实现中不可以出现不支持异步的模块代码 async def get_request(url): await asyncio.sleep(2) print('访问成功:', url) urls = [ 'www.1.com', 'www.2.com' ] tasks = [] for url in urls: c = get_request(url) task = asyncio.ensure_future(c) tasks.append(task) loop = asyncio.get_event_loop() # 注意:挂起操作需要手动处理 loop.run_until_complete(asyncio.wait(tasks)) print(time.time() - start) #执行结果 访问成功: www.1.com 访问成功: www.2.com 2.002183198928833
使用requests模块,发现并不能实现异步
#server端 from flask import flask from time import sleep app = flask(__name__) @app.route('/index') def index(): sleep(2) return 'hello' @app.route('/index1') def index1(): sleep(2) return 'hello1' if __name__ == '__main__': app.run() #爬虫代码 import requests import time import asyncio s = time.time() urls = [ 'http://127.0.0.1:5000/index', 'http://127.0.0.1:5000/home' ] async def get_request(url): page_text = requests.get(url).text return page_text tasks = [] for url in urls: c = get_request(url) task = asyncio.ensure_future(c) tasks.append(task) loop = asyncio.get_event_loop() loop.run_until_complete(asyncio.wait(tasks)) print(time.time()-s) #执行结果 并未实现异步 4.021323204040527 #因为requests不支持异步,需要使用aiohttp
使用aiohttp模块,实现了异步
#server端 from flask import flask from time import sleep app = flask(__name__) @app.route('/index') def index(): sleep(2) return 'index' @app.route('/home') def index1(): sleep(2) return 'home' if __name__ == '__main__': app.run() #爬虫代码 import aiohttp import time import asyncio s = time.time() urls = [ 'http://127.0.0.1:5000/index', 'http://127.0.0.1:5000/home' ] async def get_request(url): #每个with前要加async async with aiohttp.clientsession() as s: #在阻塞操作前加await async with await s.get(url=url) as response:#get(url=url,headers,params,proxy)可用参数 page_text = await response.text()#要加括号,是方法 print(page_text) return page_text tasks = [] for url in urls: c = get_request(url) task = asyncio.ensure_future(c) tasks.append(task) loop = asyncio.get_event_loop() loop.run_until_complete(asyncio.wait(tasks)) print(time.time() - s) #执行结果 index home 2.016155242919922
示例二
########################test.html文件######################## <!doctype html> <html lang="zh-cn"> <head> <meta charset="utf-8"> <meta http-equiv="x-ua-compatible" content="ie=edge"> <meta name="viewport" content="width=device-width, initial-scale=1"> <!-- 上述3个meta标签*必须*放在最前面,任何其他内容都*必须*跟随其后! --> <title>bootstrap 101 template</title> <!-- bootstrap --> <link href="bootstrap-3.3.7-dist/css/bootstrap.min.css" rel="stylesheet"> </head> <body> <h1>你好,世界!</h1> <ul> <li>i am hero!!!</li> <li>i am superman!!!</li> <li>i am spider!!!</li> </ul> </body> </html> ########################server端######################## import time from flask import flask,render_template app = flask(__name__) @app.route('/bobo') def index_bobo(): time.sleep(2) return render_template('test.html') @app.route('/jay') def index_jay(): time.sleep(2) return render_template('test.html') @app.route('/tom') def index_tom(): time.sleep(2) return render_template('test.html') if __name__ == '__main__': app.run(threaded=true) ########################爬虫代码######################## import time import aiohttp import asyncio from lxml import etree start = time.time() urls = [ 'http://127.0.0.1:5000/bobo', 'http://127.0.0.1:5000/jay', 'http://127.0.0.1:5000/tom', 'http://127.0.0.1:5000/bobo', 'http://127.0.0.1:5000/jay', 'http://127.0.0.1:5000/tom', 'http://127.0.0.1:5000/bobo', 'http://127.0.0.1:5000/jay', 'http://127.0.0.1:5000/tom', 'http://127.0.0.1:5000/bobo', 'http://127.0.0.1:5000/jay', 'http://127.0.0.1:5000/tom' ] # 特殊的函数:请求发送和响应数据的捕获 # 细节:在每一个with前加上async,在每一个阻塞操作的前边加上await async def get_request(url): async with aiohttp.clientsession() as s: # s.get(url,headers,proxy="http://ip:port",params) async with await s.get(url) as response: page_text = await response.text() # read()返回的是byte类型的数据 return page_text # 回调函数 def parse(task): page_text = task.result() tree = etree.html(page_text) parse_data = tree.xpath('//li/text()') print(parse_data) tasks = [] for url in urls: c = get_request(url) task = asyncio.ensure_future(c) task.add_done_callback(parse) tasks.append(task) loop = asyncio.get_event_loop() loop.run_until_complete(asyncio.wait(tasks)) print(time.time() - start) #执行结果 实现了异步 ['i am hero!!!', 'i am superman!!!', 'i am spider!!!'] ['i am hero!!!', 'i am superman!!!', 'i am spider!!!'] ['i am hero!!!', 'i am superman!!!', 'i am spider!!!'] ['i am hero!!!', 'i am superman!!!', 'i am spider!!!'] ['i am hero!!!', 'i am superman!!!', 'i am spider!!!'] ['i am hero!!!', 'i am superman!!!', 'i am spider!!!'] ['i am hero!!!', 'i am superman!!!', 'i am spider!!!'] ['i am hero!!!', 'i am superman!!!', 'i am spider!!!'] ['i am hero!!!', 'i am superman!!!', 'i am spider!!!'] ['i am hero!!!', 'i am superman!!!', 'i am spider!!!'] ['i am hero!!!', 'i am superman!!!', 'i am spider!!!'] ['i am hero!!!', 'i am superman!!!', 'i am spider!!!'] 2.094982147216797
总结
- 单线程+多任务异步协程 - 协程 - 如果一个函数的定义被asyic修饰后,则改函数调用后会返回一个协程对象。 - 任务对象: - 就是对协程对象的进一步封装 - 绑定回调 - task.add_done_callback(func):func(task):task.result() - 事件循环对象 - 事件循环对象是用来装载任务对象。该对象被启动后,则会异步的处理调用其内部装载的每一个任务对象。(将任务对象手动进行挂起操作) - aynic,await - 注意事项:在特殊函数内部不可以出现不支持异步模块的代码,否则会中断整个异步的效果!!! - aiohttp支持异步请求的模块
作 者:
出 处:
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角 【推荐】一下。您的鼓励是博主的最大动力!
自 勉:生活,需要追求;梦想,需要坚持;生命,需要珍惜;但人生的路上,更需要坚强。带着感恩的心启程,学会爱,爱父母,爱自己,爱朋友,爱他人。
下一篇: 虚拟化是云计算发展核心之一