Python基于scrapy采集数据时使用代理服务器的方法
程序员文章站
2022-05-14 20:36:57
...
本文实例讲述了Python基于scrapy采集数据时使用代理服务器的方法。分享给大家供大家参考。具体如下:
# To authenticate the proxy, #you must set the Proxy-Authorization header. #You *cannot* use the form http://user:pass@proxy:port #in request.meta['proxy'] import base64 proxy_ip_port = "123.456.789.10:8888" proxy_user_pass = "awesome:dude" request = Request(url, callback=self.parse) # Set the location of the proxy request.meta['proxy'] = "http://%s" % proxy_ip_port # setup basic authentication for the proxy encoded_user_pass=base64.encodestring(proxy_user_pass) request.headers['Proxy-Authorization'] = 'Basic ' + encoded_user_pass
希望本文所述对大家的python程序设计有所帮助。
声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn核实处理。
相关文章
相关视频
推荐阅读
-
基于python list对象中嵌套元组使用sort时的排序方法
-
Python基于scrapy采集数据时使用代理服务器的方法
-
Python使用scrapy采集数据时为每个请求随机分配user-agent的方法
-
Python使用scrapy采集数据过程中放回下载过大页面的方法
-
Python基于Scrapy的爬虫 数据采集(写入数据库)
-
讲解Python的Scrapy爬虫框架使用代理进行采集的方法
-
Python使用psutil库对系统数据进行采集监控的方法
-
Python基于scrapy采集数据时使用代理服务器的方法
-
讲解Python的Scrapy爬虫框架使用代理进行采集的方法
-
基于python list对象中嵌套元组使用sort时的排序方法