Python爬虫使用浏览器的cookies:browsercookie
由于http协议的无状态性,登录验证都是通过传递cookies来实现的。通过浏览器登录一次,登录信息的cookie是就会被浏览器保存下来。下次再打开该网站时,浏览器自动带上保存的cookies,只有cookies还未过期,对于网站来说你就还是登录状态的。
browsercookie模块就是这样一个从浏览器提取保存的cookies的工具。它是一个很有用的爬虫工具,通过加载你浏览器的cookies到一个cookiejar对象里面,让你轻松下载需要登录的网页内容。
安装
pip install browsercookie
在Windows系统中,内置的sqlite模块在加载FireFox数据库时会抛出错误。需要更新sqlite的版本:
pip install pysqlite
使用方法
下面是从网页提取标题的例子:
>>> import re >>> get_title = lambda html: re.findall('<title>(.*?)</title>', html, flags=re.DOTALL)[0].strip()
下面是未登录状况下下载得到的标题:
>>> import urllib2 >>> url = ' >>> public_html = urllib2.urlopen(url).read() >>> get_title(public_html)'Git and Mercurial code management for teams'
接下来使用browsercookie从登录过Bitbucket的FireFox里面获取cookie再下载:
>>> import browsercookie >>> cj = browsercookie.firefox() >>> opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj)) >>> login_html = opener.open(url).read() >>> get_title(login_html)'richardpenman / home — Bitbucket'
上面是Python2的代码,再试试 Python3:
>>> import urllib.request >>> public_html = urllib.request.urlopen(url).read() >>> opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))
你可以看到你的用户名出现在title里面了,说明browsercookie模块成功从FireFox加载了cookies。
下面是使用requests的例子,这次我们从Chrome里面加载cookies,当然你需要事先用Chrome登录Bitbucket:
>>> import requests >>> cj = browsercookie.chrome() >>> r = requests.get(url, cookies=cj) >>> get_title(r.content)'richardpenman / home — Bitbucket'
如果你不知道或不关心那个浏览器有你需要的cookies,你可以这样操作:
>>> cj = browsercookie.load() >>> r = requests.get(url, cookies=cj) >>> get_title(r.content)'richardpenman / home — Bitbucket'
支持
目前,该模块支持以下平台:
Chrome: Linux, OSX, Windows
Firefox: Linux, OSX, Windows
目前该模块测试过的浏览器版本还不是很多,你使用过程中可能会遇到问题,可以向作者提交问题:
https://bitbucket.org/richardpenman/browsercookie/
以上就是Python爬虫使用浏览器的cookies:browsercookie的详细内容,更多请关注其它相关文章!
推荐阅读
-
如何使用Python爬虫获取offcn上的公考信息及写入Excel表格并发送至指定邮箱
-
使用python调用浏览器并打开一个网址的例子
-
selenium+python自动化测试之使用webdriver操作浏览器的方法
-
【Python3爬虫】快就完事了--使用Celery加速你的爬虫
-
使用Python的urllib和urllib2模块制作爬虫的实例教程
-
Python使用Beautiful Soup包编写爬虫时的一些关键点
-
使用Python编写爬虫的基本模块及框架使用指南
-
Python中使用urllib2模块编写爬虫的简单上手示例
-
Python爬虫辅助利器PyQuery模块的安装使用攻略
-
Python爬虫使用selenium爬取qq群的成员信息(全自动实现自动登陆)