欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

python爬虫框架Scrapy采集数据,并制作词云图分析!

程序员文章站 2022-06-15 11:56:23
scrapy介绍 Scrapy 是一套基于Twisted、纯python实现的异步爬虫框架,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内容以及各种图片,相当的方便~ 整体架构和组成 Scrapy Engine(引擎) 引擎负责控制数据流在系统所有组件中的流动,并在相应动作发生时 ......

scrapy介绍

scrapy 是一套基于twisted、纯python实现的异步爬虫框架,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内容以及各种图片,相当的方便~

python爬虫框架Scrapy采集数据,并制作词云图分析!

整体架构和组成

python爬虫框架Scrapy采集数据,并制作词云图分析!

  • scrapy engine(引擎)

引擎负责控制数据流在系统所有组件中的流动,并在相应动作发生时触发事件,是框架的核心。

  • scheduler(调度器)

调度器从引擎接受request并将他们入队,在引擎再次请求时将请求提供给引擎。

  • downloader(下载器)

下载器负责获取页面数据并提供给引擎,而后提供给spider。

  • spider(爬虫)

spider是scrapy用户编写用于分析response并提取item(即获取到item)或额外跟进的url的类,定义了爬取的逻辑和网页内容的解析规则。 每个spider负责处理一个特定(或一些)网站。

  • item pipeline(管道)

item pipeline负责处理被spider提取出来的item。典型的处理有清洗,验证及持久化(例如存取到数据库中)

  • downloader middlewares(下载中间件)

下载器中间件是在引擎及下载器之间的特定钩子(specific hook),处理downloader传递给引擎的response(也包括引擎传递给下载器的request)。 其提供了一个简便的机制,通过插入自定义代码来扩展scrapy功能。

  • spider middlewares(spider中间件)

spider中间件是在引擎及spider之间的特定钩子(specific hook),处理spider的输入(response)和输出(items及requests)。 其提供了一个简便的机制,通过插入自定义代码来扩展scrapy功能。

安装

pip install scrapy

爬虫项目

准备工作

  • 创建项目
scrapy startproject xingmingdq
  • 新建爬虫
scrapy genspider xingming resgain.net/xmdq.html

这个时候,目录下会创建xingmingdq文件夹,文件夹下就是xingmingdq scrapy项目,spiders下有xingming爬虫文件。

python爬虫框架Scrapy采集数据,并制作词云图分析!

建立item

items.py中添加以下代码:

class xingming_item(scrapy.item):
    name = scrapy.field()
    xingshi = scrapy.field()
    xingshi_zh = scrapy.field()

爬取名字

爬虫文件spiders/xingming.py书写网页解析规则。

# -*- coding: utf-8 -*-
import scrapy
from xingmingdq.items import xingming_item

class xingmingspider(scrapy.spider):
    name = 'xingming'
    # allowed_domains = ['www.resgain.net/xmdq.html']
    start_urls = ['http://www.resgain.net/xmdq.html']

    def parse(self, response):
        content = response.xpath('//div[@class="col-xs-12"]/a/@href').extract()

        for i in content:
            page = 0
            href = 'http:' + i
            base = href.split('/name')[0] + '/name_list_'
            while page < 10:
                url = base + str(page) + '.html'
                page += 1
                yield scrapy.request(url, callback=self.parse_in_html)

    # 解析每一页
    def parse_in_html(self, response):
        person_info = response.xpath('//div[@class="col-xs-12"]/div[@class="btn btn-default btn-lg namelist"]/div[@style="margin-top: 20px;"]')
        xingshi_zh = response.xpath('//div[@class="navbar-header"]/a/div[@style="text-align: center;"]/text()').extract()[0].split('姓之家')[0]
        xingshi = response.url.split('/')[2].split('.')[0]
        for every_one in person_info:
            name = every_one.xpath('./text()').extract()[0]
            the_item = xingming_item()
            the_item['name'] = name
            the_item['xingshi'] = xingshi
            the_item['xingshi_zh'] = xingshi_zh
            yield the_item

处理流程

pipelines.py中,编写结果写入文件的处理。

class xingmingdqpipeline(object):
    def __init__(self):
        self.fp = open('xingming.csv', 'w', encoding='utf-8')

    def process_item(self, item, spider):
        self.fp.write('%s,%s,%s\n' % (item['name'], item['xingshi_zh'], item['xingshi']))
        return item

    def close_spider(self, spider):
        self.fp.close()

设置参数

要想执行pipelines,需要在settings.py中进行配置,搜索user_agent和item_pipelines进行修改。

# 修改user_agent
user_agent = 'mozilla/4.0 (compatible; msie 7.0; windows nt 5.1; 360se)'
# 配置item_pipelines
item_pipelines = {
    'xingmingdq.pipelines.xingmingdqpipeline': 300,
}

执行爬虫

  • 命令执行
scrapy crawl xingming
  • 脚本执行

写入python文件,创建run.py,编辑下面代码,pycharm中运行。

import os
os.system("scrapy crawl xingming")

结果文件

python爬虫框架Scrapy采集数据,并制作词云图分析!

词云分析

在线词云生成网站: 

导入爬取的姓名数据,分析出图:

python爬虫框架Scrapy采集数据,并制作词云图分析!

哈哈哈,最多的竟然是 婷婷

python爬虫框架Scrapy采集数据,并制作词云图分析!

找找有你的名字没有吧。