欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

爬虫多次爬取时候cookie的存储用于登入

程序员文章站 2023-11-18 20:08:40
一.用requests模块自动保存(保存缓存中) 构建一个session对象session = requests.session() 用构建的session代替requests进行访问他就会自动存啦 只存响应的cookie 不存发送请求时候带的cookie 不同url没有影响 cookie名字一样会 ......

一.用requests模块自动保存(保存缓存中)

  • 构建一个session对象session = requests.session()

  • 用构建的session代替requests进行访问他就会自动存啦

import requests
session = requests.session()
r = session.get(......)   #他会存返回的cookies不会存发送的cookies
r = session.post(......)  #在请求同一url他会把存的cookies发送过去

注意点

  • 只存响应的cookie
  • 不存发送请求时候带的cookie
  • 不同url没有影响
  • cookie名字一样会覆盖掉

原因自己看下面自己看哈,有问题可以私聊我

爬虫多次爬取时候cookie的存储用于登入

爬虫多次爬取时候cookie的存储用于登入

爬虫多次爬取时候cookie的存储用于登入

爬虫多次爬取时候cookie的存储用于登入

二.将cookie存本地

1.基于session(推荐使用代码少哈哈)

import requests
import http.cookiejar as cookielib

session =requests.session()
session.cookie = cookielib.lwpcookiejar()


session.cookie.save(filename='1.txt')   //存cookie

session.cookies.load(filename='1.txt')   //读cookie

2.普通请求把cookies存本地

这个参照https://www.cnblogs.com/fu-yong/p/9032902.html

第一次访问

from urllib import request,parse
from http import cookiejar
 
# 创建filecookiejar实例对象
# 它需要一个参数,既cookie保存的位置
filename = 'cookie.txt'
cookie = cookiejar.filecookiejar(filename)
 
# 根据创建的cookie生成cookie的管理器
cookie_handle = request.httpcookieprocessor(cookie)
 
# 创建http请求管理器
http_handle = request.httphandler()
 
# 创建https管理器
https_handle = request.httpshandler()
 
# 创建求求管理器,将上面3个管理器作为参数属性
# 有了opener,就可以替代urlopen来获取请求了
opener =  request.build_opener(cookie_handle,http_handle,https_handle)

# 登录url,需要从登录form的action属性中获取
url = 'xxxxxxxxxxxxxx'

# 登录所需要的数据,数据为字典形式,
# 此键值需要从form扁担中对应的input的name属性中获取
data = {
    'email':'xxxx',
    'password':'xxxxx'
}

# 将数据解析成urlencode格式
data = parse.urlencode(data)

req = request.request(url,data=data)

# 正常是用request.urlopen(),这里用opener.open()发起请求
response = opener.open(req)

# 保存cookie文件
cookie.save()

第二次访问

from urllib import request,parse
from http import cookiejar
 
# 创建cookiejar实例对象
cookie = cookiejar.filecookiejar()
 
# 读取已经保存的cookie文件
# 读取之后,就无需登录,直接访问主页即可
cookie.load('cookie.txt')
 
# 根据创建的cookie生成cookie的管理器
cookie_handle = request.httpcookieprocessor(cookie)
 
# 创建http请求管理器
http_handle = request.httphandler()
 
# 创建https管理器
https_handle = request.httpshandler()
 
# 创建求求管理器,将上面3个管理器作为参数属性
# 有了opener,就可以替代urlopen来获取请求了
opener =  request.build_opener(cookie_handle,http_handle,https_handle)

url = 'http://xxxxxx'
res = opener.open(url)
 
html = res.read().decode()

with open('renren.html','w') as f:
        f.write(html)