欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Python爬虫入门这一篇就够了

程序员文章站 2022-04-28 15:57:17
何谓爬虫 所谓爬虫,就是按照一定的规则,自动的从网络中抓取信息的程序或者脚本。万维网就像一个巨大的蜘蛛网,我们的爬虫就是上面的一个蜘蛛,不断的去抓取我们需要的信息。 爬虫三要素 抓取 分析 存储 基础的抓取操作 1、urllib 在Python2.x中我们可以通过urllib 或者urllib2 进 ......

何谓爬虫

所谓爬虫,就是按照一定的规则,自动的从网络中抓取信息的程序或者脚本。万维网就像一个巨大的蜘蛛网,我们的爬虫就是上面的一个蜘蛛,不断的去抓取我们需要的信息。

爬虫三要素

抓取

分析

存储

基础的抓取操作

1、urllib

在python2.x中我们可以通过urllib 或者urllib2 进行网页抓取,但是再python3.x 移除了urllib2。只能通过urllib进行操作

Python爬虫入门这一篇就够了
 

带参数的urllib

url = 'https://blog.csdn.net/weixin_43499626'

url = url + '?' + key + '=' + value1 + '&' + key2 + '=' + value2

2、requests

requests库是一个非常实用的htpp客户端库,是抓取操作最常用的一个库。requests库满足很多需求

Python爬虫入门这一篇就够了
 

需要登录的情况下

1、表单提交登录

向服务器发送一个post请求并携带相关参数,将服务器返回的cookie保存在本地,cookie是服务器在客户端上的“监视器”,记录了登录信息等。客户端通过识别请求携带的cookie,确定是否登录

Python爬虫入门这一篇就够了
 

2、cookie登录

我们可以将登录的cookie存储在文件中,

Python爬虫入门这一篇就够了
 

常见的反爬有哪些

1、通过user-agent来控制访问

user-agent能够使服务器识别出用户的操作系统及版本、cpu类型、浏览器类型和版本。很多网站会设置user-agent白名单,只有在白名单范围内的请求才能正常访问。所以在我们的爬虫代码中需要设置user-agent伪装成一个浏览器请求。有时候服务器还可能会校验referer,所以还可能需要设置referer(用来表示此时的请求是从哪个页面链接过来的)

Python爬虫入门这一篇就够了
 

如下是csdn中的request header中的信息

Python爬虫入门这一篇就够了
 

2、通过ip来限制

当我们用同一个ip多次频繁访问服务器时,服务器会检测到该请求可能是爬虫操作。因此就不能正常的响应页面的信息了。

解决办法常用的是使用ip代理池。网上就有很多提供代理的网站、

Python爬虫入门这一篇就够了
 

3、设置请求间隔

import time

time.sleep(1)

4、自动化测试工具selenium

web应用程序测试的selenium工具。该工具可以用于单元测试,集成测试,系统测试等等。它可以像真正的用户一样去操作浏览器(包括字符填充、鼠标点击、获取元素、页面切换),支持mozilla firefox、google、chrome、safari、opera、ie等等浏览器。

5、参数通过加密

某些网站可能会将参数进行某些加密,或者对参数进行拼接发送给服务器,以此来达到反爬虫的目的。这个时候我们可以试图通过js代码,查看破解的办法。

连接xxx

或者可以使用"phantomjs",phantomjs是一个基于webkit的"*面"(headless)浏览器,它会把网站加载到内存并执行页面上的javascript,因为不会展示图形界面,所以运行起来比完整的浏览器更高效。

6、通过robots.txt来限制爬虫

robots.txt是一个限制爬虫的规范,该文件是用来声明哪些东西不能被爬取。如果根目录存在该文件,爬虫就会按照文件的内容来爬取指定的范围。

浏览器访问https://www.taobao.com/robots.txt

可以查看淘宝的robots.txt文件

部分内容如下

user-agent: baiduspiderdisallow: /product/disallow: /user-agent: googlebotdisallow: /user-agent: bingbotdisallow: /user-agent: 360spiderdisallow: /user-agent: yisouspiderdisallow: /user-agent: sogouspiderdisallow: /user-agent: yahoo! slurpdisallow: /user-agent: *disallow: /

可以看出淘宝拒绝了百度爬虫、谷歌爬虫、必应爬虫、360爬虫、神马爬虫,搜狗爬虫、雅虎爬虫等约束。

分析

我们可以分析爬取的网页内容,获得我们真正需要的数据,常用的有正则表达式,beautifulsoup,xpath、lxml等

正则表达式是进行内容匹配,将符合要求的内容全部获取;

xpath()能将字符串转化为标签,它会检测字符串内容是否为标签,但是不能检测出内容是否为真的标签;

beautifulsoup是python的一个第三方库,它的作用和 xpath 作用一样,都是用来解析html数据的相比之下,xpath的速度会快一点,因为xpath底层是用c来实现的

存储

通过分析网页内容,获取到我们想要的数据,我们可以选择存到文本文件中,亦可以存储在数据库中,常用的数据库有mysql、mongodb

存储为json文件

Python爬虫入门这一篇就够了
 

存储为cvs文件

Python爬虫入门这一篇就够了
 

存储到mongo

Python爬虫入门这一篇就够了