欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

scrapy保存请求失败的url-写给自己看爬虫系列3

程序员文章站 2022-05-23 10:26:17
...

前言

需求:将请求不是200的url抓下来保存到本地记录
方法:在scrapy的middlewares中创建一个中间件,对response.status状态不为200的url收集下来

middleware中设置方法
class GetFailedUrl(object):

    def process_response(self,response,request,spider):
        
        if response.status != 200:

            name  = time.strftime('%Y-%m-%d %H:%M',time.localtime())

            with open (str(name),'w+') as file:
                
                file.write(response.url)

                return response
        else:
            return response