欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Scrapy框架

程序员文章站 2023-10-11 20:33:53
[TOC] 1. Scrapy介绍 1.1. Scrapy框架 Scrapy是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广泛。 (引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。 (调 ......

1. scrapy介绍

1.1. scrapy框架

scrapy是用纯python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广泛。

Scrapy框架

  • scrapy engine(引擎): 负责spider、itempipeline、downloader、scheduler中间的通讯,信号、数据传递等。

  • scheduler(调度器): 它负责接受引擎发送过来的request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。

  • downloader(下载器):负责下载scrapy engine(引擎)发送的所有requests请求,并将其获取到的responses交还给scrapy engine(引擎),由引擎交给spider来处理,

  • spider(爬虫):它负责处理所有responses,从中分析提取数据,获取item字段需要的数据,并将需要跟进的url提交给引擎,再次进入scheduler(调度器),

  • item pipeline(管道):它负责处理spider中获取到的item,并进行进行后期处理(详细分析、过滤、存储等)的地方.

  • downloader middlewares(下载中间件):你可以当作是一个可以自定义扩展下载功能的组件。

  • spider middlewares(spider中间件):你可以理解为是一个可以自定扩展和操作引擎和spider中间通信的功能组件(比如进入spider的responses;和从spider出去的requests)

1.2. scrapy运行流程

  1. 引擎:hi!spider, 你要处理哪一个网站?

  2. spider:老大要我处理xxxx.com

  3. 引擎:你把第一个需要处理的url给我吧。

  4. spider:给你,第一个url是xxxxxxx.com

  5. 引擎:hi!调度器,我这有request请求你帮我排序入队一下。

  6. 调度器:好的,正在处理你等一下。

  7. 引擎:hi!调度器,把你处理好的request请求给我。

  8. 调度器:给你,这是我处理好的request

  9. 引擎:hi!下载器,你按照老大的下载中间件的设置帮我下载一下这个request请求

  10. 下载器:好的!给你,这是下载好的东西。(如果失败:sorry,这个request下载失败了。然后引擎告诉调度器,这个request下载失败了,你记录一下,我们待会儿再下载)

  11. 引擎:hi!spider,这是下载好的东西,并且已经按照老大的下载中间件处理过了,你自己处理一下(注意!这儿responses默认是交给def parse()这个函数处理的)

  12. spider:(处理完毕数据之后对于需要跟进的url),hi!引擎,我这里有两个结果,这个是我需要跟进的url,还有这个是我获取到的item数据。

  13. 引擎:hi !管道 我这儿有个item你帮我处理一下!调度器!这是需要跟进url你帮我处理下。然后从第四步开始循环,直到获取完老大需要全部信息。

  14. 管道``调度器:好的,现在就做!

1.3. 制作srapy爬虫的四部曲

  • 新建项目 (scrapy startproject xxx):新建一个新的爬虫项目
  • 明确目标 (编写items.py):明确你想要抓取的目标
  • 制作爬虫 (spiders/xxspider.py):制作爬虫开始爬取网页
  • 存储内容 (pipelines.py):设计管道存储爬取内容

1.4. 文件目录

插入scrapy01.png

  • scrapy.cfg :项目的配置文件
[settings]
default = myspider.settings

[deploy]
#url = http://localhost:6800/
project = myspider
  • myspider/ :项目的python模块,将会从这里引用代码
  • __init__: 必须的文件
  • myspider/items.py :项目的目标文件
import scrapy


class myspideritem(scrapy.item):
    # define the fields for your item here like:
    # name = scrapy.field()
    # age = scrapy.field()
    pass
  • myspider/middlewares.py :
  • myspider/pipelines.py :项目的管道文件
class myspiderpipeline(object):
    def process_item(self, item, spider):
        return item
  • myspider/settings.py :项目的设置文件
# 你的爬虫名字
bot_name = 'myspider'

# 你的爬虫的位置
spider_modules = ['myspider.spiders']
newspider_module = 'myspider.spiders'

# 是否遵循robust协议
robotstxt_obey = true

# 爬虫并发量
#concurrent_requests = 32

# 下载延迟
#download_delay = 3
# 下载延迟的额外设置:一般不用设置
#concurrent_requests_per_domain = 16
#concurrent_requests_per_ip = 16

# 是否使用cookie
#cookies_enabled = false

# 访问电话线设置
#telnetconsole_enabled = false

# 设置默认请求报头
#default_request_headers = {
# 'user-agent': ''
#   'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
#   'accept-language': 'en',
#}

# 爬虫中间键:一般不设置
#spider_middlewares = {
#    'myspider.middlewares.myspiderspidermiddleware': 543,
#}

# 下载中间键: 后面的值是优先级,越小越高
#downloader_middlewares = {
#    'myspider.middlewares.myspiderdownloadermiddleware': 543,
#}

# 延展,没什么用
#extensions = {
#    'scrapy.extensions.telnet.telnetconsole': none,
#}

# 管道文件---经常使用的,用于指定优先级
# 
#item_pipelines = {
#    'myspider.pipelines.myspiderpipeline': 300,
#}

2. scrapy全部流程

我们打算抓取: 网站里的所有讲师的姓名、职称和个人信息。

  • 创建项目
  • 编写items.py文件:设置需要保存的数据字段
  • 创建爬虫模板
    • 在spiders/文件夹下面运行scrapy genspider spidername "starturl"
  • 进入xxx/spiders: 编写爬虫文件,文件里的name就是爬虫名
  • 写管道文件
    • 设置文件保存的形式和写入文件
    • 在setting中设置优先级(默认自动设置)
    • 添加user-agent到setting中
  • 运行:
    -scrapy crawl itcast
    • scrapy crawl itcast -o json/csv/xml/
  • 数据处理
    • 数据:交给管道文件处理 yield item
    • 请求:重新发送给调度器入、出队列,交给下载器下载 yield scrapy.request(url, callback = self.parse)

3. 写爬虫主要文件

要建立一个spider, 你必须用scrapy.spider类创建一个子类,并确定了三个强制的属性 和 一个方法。

  • name = "" :这个爬虫的识别名称,必须是唯一的,在不同的爬虫必须定义不同的名字。

  • allow_domains = [] 是搜索的域名范围,也就是爬虫的约束区域,规定爬虫只爬取这个域名下的网页,不存在的url会被忽略。

  • start_urls = ():爬取的url元祖/列表。爬虫从这里开始抓取数据,所以,第一次下载的数据将会从这些urls开始。其他子url将会从这些起始url中继承性生成。

  • parse(self, response) :解析的方法,每个初始url完成下载后将被调用,调用的时候传入从每一个url传回的response对象来作为唯一参数,主要作用如下:

    • 负责解析返回的网页数据(response.body),提取结构化数据(生成item)
    • 生成需要下一页的url请求。