Scrapy框架的简单使用
程序员文章站
2022-05-31 12:40:56
一.安装依赖 二.命令 运行爬虫程序如果不打印日志 三.文件说明 scrapy.cfg 项目的主配置信息,用来部署scrapy时使用,爬虫相关的配置信息在settings.py文件中。 items.py 设置数据存储模板,用于结构化数据,如:Django的Model pipelines 数据处理行为 ......
一.安装依赖
#windows平台 1、pip3 install wheel 3、pip3 install lxml 4、pip3 install pyopenssl 5、pip3 install pywin32 #如果不行去官网https://sourceforge.net/projects/pywin32/files/pywin32/ 6、pip3 install twisted #如果不行去官网:http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted 7、pip3 install scrapy #linux平台 1、pip3 install scrapy
二.命令
#1 查看帮助 scrapy -h scrapy <command> -h #2 有两种命令:其中project-only必须切到项目文件夹下才能执行,而global的命令则不需要 global commands: startproject #创建项目 genspider #基本上都要cd项目目录,scrapy genspider 名称 url settings #如果是在项目目录下,则得到的是该项目的配置 runspider #运行一个独立的python文件,不必创建项目 shell #scrapy shell url地址 在交互式调试,如选择器规则正确与否 fetch #独立于程单纯地爬取一个页面,可以拿到请求头 view #下载完毕后直接弹出浏览器,以此可以分辨出哪些数据是ajax请求 version #scrapy version 查看scrapy的版本,scrapy version -v查看scrapy依赖库的版本 project-only commands: crawl #运行爬虫,必须创建项目才行,确保配置文件中robotstxt_obey = false check #检测项目中有无语法错误 list #列出项目中所包含的爬虫名 edit #编辑器,一般不用 parse #scrapy parse url地址 --callback 回调函数 #以此可以验证我们的回调函数是否正确 bench #scrapy bentch压力测试 #3 官网链接 https://docs.scrapy.org/en/latest/topics/commands.html
crawl
运行爬虫程序如果不打印日志
scrapy crawl 爬虫程序中的name --nolog
三.文件说明
- scrapy.cfg 项目的主配置信息,用来部署scrapy时使用,爬虫相关的配置信息在settings.py文件中。
- items.py 设置数据存储模板,用于结构化数据,如:django的model
- pipelines 数据处理行为,如:一般结构化的数据持久化
- settings.py 配置文件,如:递归的层数、并发数,延迟下载等。强调:配置文件的选项必须大写否则视为无效,正确写法user_agent='xxxx'
- spiders 爬虫目录,如:创建文件,编写爬虫规则
推荐阅读
-
解析iOS应用的UI开发中懒加载和xib的简单使用方法
-
使用 Scrapy 的 ImagesPipeline 下载图片
-
Android上使用jspf插件框架的方法
-
Python Web框架Pylons中使用MongoDB的例子
-
Python的Bottle框架的一些使用技巧介绍
-
在Python的Flask框架下使用sqlalchemy库的简单教程
-
在scrapy中使用phantomJS实现异步爬取的方法
-
腾讯防水墙(滑动验证码)的简单使用 https://007.qq.com
-
关于bootstrap日期转化,bootstrap-editable的简单使用,bootstrap-fileinput的使用详解
-
微信门户开发框架-使用指导说明书(2)--基于框架的开发过程