欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Python爬虫总结

程序员文章站 2022-07-03 14:54:05
python crawler文章目录[python crawler](https://github.com/AnDeltas/PythonCrawlerTutorial)请求数据: requests库的使用get与post反反爬cookie与session(会话跟踪技术)cookiesession用途数据解析regex[bs4 BeatifulSoup](https://www.jianshu.com/p/9254bdc467b2)XPath数据持久化数据可视化编写一个Python 爬虫主要分为以下三...

python crawler

编写一个Python 爬虫一般分为以下三步:

1. 请求数据

2. 数据解析

3. 数据持久化

我们从这三步入手, 开始学习Python爬虫

请求数据: requests库的使用

get与post

# 假如我们现在发送一个post请求
we_got_it = requests.post(url=url, headers=header, params=param, data=data)
# we_got_it 是什么数据由所 content-type 参数决定
# 这个参数包含在响应头中, 我们可以通过抓包工具查看

# 有些时候你得到的text中会含有乱码, 这是由于requests会猜测请求的数据的编码格式
# 但是有些时候会猜错, 这是候就需要你手动设定请求数据的编码格式, 防止乱码
we_got_it.encoding = "utf-8" # 这是候就会得到正确的文本

we_got_it.text # -> 返回str

we_got_it.content # -> 返回bytes, 在对一些图片之类的二进制数据进行请求的时候要用这个attr

we_got_it.json()
# 以上三种都是常用的属性或者函数, 可以自己查阅相关文档学习

# get只是比post少了一个data参数

你需要自己去了解一下post或者get里的这些参数都是干什么用的, 这都很简单, 我就不在这里赘述了.

反反爬

  • robots.txt 君子协定