Python3爬虫系列:理论+实验+爬取妹子图实战
github: https://github.com/wangy8961/python3-concurrency-pics-02 ,欢迎star
爬虫系列:
(1) 理论
- python3爬虫系列01 (理论) - i/o models 阻塞 非阻塞 同步 异步
- python3爬虫系列02 (理论) - python并发编程
- python3爬虫系列06 (理论) - 可迭代对象、迭代器、生成器
- python3爬虫系列07 (理论) - 协程
- python3爬虫系列08 (理论) - 使用asyncio模块实现并发
(2) 实验
- python3爬虫系列03 (实验) - 同步阻塞下载
- python3爬虫系列04 (实验) - 多进程并发下载
- python3爬虫系列05 (实验) - 多线程并发下载
- python3爬虫系列09 (实验) - 使用asyncio+aiohttp并发下载
(3) 实战
1. 准备环境
1.1 安装centos
建议使用vmware安装一台centos-7.3虚拟机,请参考:http://www.madmalls.com/blog/post/customize-centos-7-3-autoinstall-iso/
1.2 安装python3
请参考:http://www.madmalls.com/blog/post/deploy-flask-gunicorn-nginx-supervisor-on-centos7/#3-python3
1.3 安装mongodb
请参考:http://www.madmalls.com/blog/post/deploy-flask-gunicorn-nginx-supervisor-on-centos7/#4-mongodb ,如果是windows请参考:http://www.madmalls.com/blog/post/win10-install-mongodb/
尝试使用
motor
实现mongodb异步操作,好像效率更差一些,所以放弃使用该模块。目前数据库操作是同步阻塞型,使用pymongo
模块
1.4 安装git
[root@centos ~]# yum -y install git
代码已上传到 https://github.com/wangy8961/python3-concurrency-pics-02 ,克隆代码:
[root@centos ~]# git clone https://github.com/wangy8961/python3-concurrency-pics-02.git [root@centos ~]# cd python3-concurrency-pics-02/
1.5 准备虚拟环境
如果你的操作系统是linux
:
[root@centos python3-concurrency-pics-02]# python3 -m venv venv3 [root@centos python3-concurrency-pics-02]# source venv3/bin/activate
windows
激活虚拟环境的命令是:venv3\scripts\activate
1.6 安装依赖包
如果你的操作系统是linux
:
(venv3) [root@centos python3-concurrency-pics-02]# pip install -r requirements-linux.txt
如果你的操作系统是windows
(不会使用uvloop
):
(venv3) c:\users\wangy> pip install -r requirements-win32.txt
2. 分析过程
2.1 获取图集信息
使用requests
模块或aiohttp
模块来获取入口页面 http://www.mzitu.com/all/ 的html响应,然后通过beautifulsoup4
和lxml
来解析html文档。每个图集
按年份/月份被放在<div class='all'></div>
下面的每个<a href="图集url">图集标题<a>
中。需要注意的是,早期图片需要访问 http://www.mzitu.com/old/ ,递归调用获取图集的函数即可
将获取的4000多个图集信息保存到mongodb数据库的albums
集合中
访问 http://www.mzitu.com/all/ 和 http://www.mzitu.com/old/ ,共
2次
请求
2.2 获取包含图片的页面信息
每个图集下面的图片数量不相同,我们需要依次访问图集url,通过分页导航栏
获取该图集下最大的图片数和它的发布时间,并在本地磁盘上创建按日期分类的目录,方便以后浏览图片
假设图集url为 http://www.mzitu.com/56918 ,发现该图集下有47张图片,而且包含图片的页面url也是有规律的,比如包含第1张图片的页面url为 http://www.mzitu.com/56918/1
将每个图集下面的包含图片的页面信息保存到mongodb数据库的image_pages
集合中
依次访问图集url,共
4500多次
请求
2.3 获取图片的真实url
我们通过访问每个包含图片的页面,获取每张图片的真实url,并保存到mongodb数据库的images
集合中
依次访问包含图片的页面url,共
13万多次
请求*
2.4 下载图片
从mongodb数据库的images
集合中获取所有图片的真实url,依次下载并保存到本地
依次访问图片的真实url,共
13万多次
请求
3. 使用
3.1 测试
由于图片有13万多张,所以测试的时候,你可以指定只下载100个图集来对比同步下载
、多线程下载
和异步下载
的效率区别,修改以下三个脚本中的test_num = 100
建议每次测试完,都删除相关目录:
(venv3) [root@centos python3-concurrency-pics-02]# rm -rf downloads/ logs/ __pycache__/
删除数据库记录:
(venv3) [root@centos python3-concurrency-pics-02]# mongo mongodb shell version v3.6.6 connecting to: mongodb://127.0.0.1:27017 ... > show dbs admin 0.000gb config 0.000gb local 0.000gb mzitu 0.036gb > use mzitu switched to db mzitu > db.dropdatabase() { "dropped" : "mzitu", "ok" : 1 } > show dbs admin 0.000gb config 0.000gb local 0.000gb >
(1) 依序下载
(venv3) [root@centos python3-concurrency-pics-02]# python sequential.py
(2) 多线程下载
(venv3) [root@centos python3-concurrency-pics-02]# python threadpool.py
(3) 异步下载
(venv3) [root@centos python3-concurrency-pics-02]# python asynchronous.py
3.2 后台运行爬虫脚本
全站下载虽然只有13万多张图片,但章节分析过,总请求数差不多有30万次,所以耗时比较久,为防止不小心关闭shell客户端而导致ssh断开,将使用screen
来将脚本运行为后台任务:
[root@centos ~]# yum -y install screen [root@centos ~]# screen -dms spider [root@centos ~]# screen -r spider [root@centos ~]# cd /root/python3-concurrency-pics-02 [root@centos python3-concurrency-pics-02]# source venv3/bin/activate (venv3) [root@centos python3-concurrency-pics-02]# python asynchronous.py
脚本运行的过程中,按ctrl + a + d
即可将任务切换到后台运行,此时再关闭shell客户端也没影响了。等待大约2小时后:
[root@centos ~]# screen -r spider
即可查看下载的结果,如果有失败的请求,很正常,再次执行脚本即可
(venv3) [root@centos python3-concurrency-pics-02]# ls -lr downloads/ | grep '^-' | wc -l 138217 (venv3) [root@centos python3-concurrency-pics-02]# du -sh downloads/ 16g downloads/
3.3 定时任务自动每日更新
[root@centos ~]# crontab -e 执行上述命令后,将打开vim编辑器,新增如下两行内容: # 爬取 www.mzitu.com 美女图片 30 23 * * * /usr/bin/python3 /root/python3-concurrency-pics-02/asynchronous.py
将在每天晚上23:30分自动执行爬虫脚本,查看cron
定时任务是否执行:
[root@centos ~]# tail -f /var/log/cron aug 27 23:30:01 centos crond[6256]: (root) cmd (/usr/bin/python3 /root/python3-concurrency-pics-02/asynchronous.py) aug 27 23:30:01 centos crond[6257]: (root) cmd (/usr/lib64/sa/sa1 1 1)
更多cron
知识请参考:http://www.madmalls.com/blog/post/how-to-schedule-tasks-in-linux-with-at-and-cron/
上一篇: 程序员之殇:而立之年,何处何从?