Python使用scrapy采集时伪装成HTTP/1.1的方法
程序员文章站
2022-05-30 21:27:17
本文实例讲述了Python使用scrapy采集时伪装成HTTP/1.1的方法。分享给大家供大家参考。具体如下:
添加下面的代码到 settings.py 文件
复制代码...
本文实例讲述了Python使用scrapy采集时伪装成HTTP/1.1的方法。分享给大家供大家参考。具体如下:
添加下面的代码到 settings.py 文件
复制代码 代码如下:
DOWNLOADER_HTTPCLIENTFACTORY = 'myproject.downloader.HTTPClientFactory'
保存以下代码到单独的.py文件
复制代码 代码如下:
from scrapy.core.downloader.webclient import ScrapyHTTPClientFactory, ScrapyHTTPPageGetter
class PageGetter(ScrapyHTTPPageGetter):
def sendCommand(self, command, path):
self.transport.write('%s %s HTTP/1.1\r\n' % (command, path))
class HTTPClientFactory(ScrapyHTTPClientFactory):
protocol = PageGetter
class PageGetter(ScrapyHTTPPageGetter):
def sendCommand(self, command, path):
self.transport.write('%s %s HTTP/1.1\r\n' % (command, path))
class HTTPClientFactory(ScrapyHTTPClientFactory):
protocol = PageGetter
希望本文所述对大家的Python程序设计有所帮助。
推荐阅读
-
Python基于scrapy采集数据时使用代理服务器的方法
-
Python使用scrapy采集数据时为每个请求随机分配user-agent的方法
-
讲解Python的Scrapy爬虫框架使用代理进行采集的方法
-
Python基于scrapy采集数据时使用代理服务器的方法
-
讲解Python的Scrapy爬虫框架使用代理进行采集的方法
-
Python使用scrapy采集数据时为每个请求随机分配user-agent的方法
-
Python使用scrapy采集时伪装成HTTP/1.1的方法
-
Python基于scrapy采集数据时使用代理服务器的方法
-
讲解Python的Scrapy爬虫框架使用代理进行采集的方法
-
Python基于scrapy采集数据时使用代理服务器的方法