欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

使用selenium框架的Python爬虫被检测到的 解决方法

程序员文章站 2022-03-25 17:16:45
本人之前在做X宝,X评,X团的爬虫项目时,均遇到了获取cookies这个重要的问题,而获取cookies的前提是实现用户登录,登陆的过程就不赘述了,相信大家都遇到了滑块,滚动条等反爬手段,(本人用webdriver破解),可大厂的技术团队还是给了我们一个更难解决的问题,就是通过js给webdrive ......

本人之前在做x宝,x评,x团的爬虫项目时,均遇到了获取cookies这个重要的问题,而获取cookies的前提是实现用户登录,登陆的过程就不赘述了,相信大家都遇到了滑块,滚动条等反爬手段,(本人用webdriver破解),可大厂的技术团队还是给了我们一个更难解决的问题,就是通过js给webdriver请求响应错误信息。那我们的思考路线就是如何让这个js文件功能作废,本人使用的方法是通过 mitmproxy 蔽掉识别 webdriver 标识符的 js 文件。 首先下载mitproxy,pip安装方法:

  pip install mitmproxy

基本使用方法:使用selenium框架的Python爬虫被检测到的 解决方法

给本机设置代理ip 127.0.0.1端口8001(为了让所有流量走mitmproxy)具体方法请百度。

2. 启动mitmproxy。

windows:

mitmdump -p 8001

linux:

mitmproxy -p 8001

3. 打开chrome的开发者工具,找到目标网站是通过哪个js文件控制webdriver相应的, 如:

使用selenium框架的Python爬虫被检测到的 解决方法

4. 开始写干扰脚本(driverpass.py):

import re
from mitmproxy import ctx

def response(flow): 
    if '/js/yoda.' in flow.request.url:
        for webdriver_key in ['webdriver', '__driver_evaluate', '__webdriver_evaluate', '__selenium_evaluate', '__fxdriver_evaluate', '__driver_unwrapped', '__webdriver_unwrapped', '__selenium_unwrapped', '__fxdriver_unwrapped', '_selenium_ide_recorder', '_selenium', 'calledselenium', '_webdriver_elem_cache', 'chromedriverw', 'driver-evaluate', 'webdriver-evaluate', 'selenium-evaluate', 'webdrivercommand', 'webdriver-evaluate-response', '__webdriverfunc', '__webdriver_script_fn', '__$webdriverasyncexecutor', '__lastwatiralert', '__lastwatirconfirm', '__lastwatirprompt', '$chrome_asyncscriptinfo', '$cdc_asdjflasutopfhvczlmcfl_' ]:
            ctx.log.info('remove "{}" from {}.'.format(
            webdriver_key, flow.request.url
            ))  
        flow.response.text = flow.response.text.replace('"{}"'.format(webdriver_key), '"no-such-attr"')  
    flow.response.text = flow.response.text.replace('t.webdriver', 'false')
    flow.response.text = flow.response.text.replace('chromedriver', '')

5. 退出刚才的mitmproxy状态,重新用命令行启动mitmproxy干扰脚本 监听8001端口的请求与响应。

mitmdump -s driverpass.py -p 8001

6. 现在别管mitmproxy,启动webdriver 顺利获得cookies。