Python爬虫入门<二>—模拟浏览器
程序员文章站
2022-05-18 21:37:29
...
模拟浏览器
标签: python爬虫 模拟浏览器
1.为什么要模拟浏览器
其实,我们访问一一些需要登录的网站的时候,我们的到的请求是由浏览器发出来的,所以我们做爬虫的时候,需要模拟浏览器的环境,从而的到响应。
2需要的工具
其实,在做爬虫的时候,我们需要工具去进行抓包,这里我用的谷歌浏览器自带的抓包工具,大家也可以用fidder
,当然还有很多人喜欢用火狐(据说好用)
我就用谷歌浏览器了(嘻嘻)
那我们就用豆瓣来模拟(都喜欢用豆瓣)
3编写代码访问
import urllib.request
def savefile(data):
path = "C:\\Users\\Administrator\\Desktop\\爬虫豆瓣.txt"
f = open(path ,'wb+')
f.write(data)
f.close()
url = "https://www.douban.com/"
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36'}
request = urllib.request.Request(url=url,headers=headers)
response = urllib.request.urlopen(url)
data = response.read()
savefile(data)
推荐阅读
-
python爬虫--模拟12306登录
-
Selenium(python版本)如何启动浏览器模拟点击网页链接或按钮?
-
Python爬虫模拟登录带验证码网站
-
Python使用Selenium模块模拟浏览器抓取斗鱼直播间信息示例
-
Python使用Selenium模块实现模拟浏览器抓取淘宝商品美食信息功能示例
-
Python爬取租房数据实例,据说可以入门爬虫的小案例!
-
小白学 Python 爬虫:自动化测试框架 Selenium 从入门到实战
-
Python爬虫入门教程 31-100 36氪(36kr)数据抓取 scrapy
-
Python实现模拟浏览器请求及会话保持操作示例
-
从入门到放弃:python爬虫系列-xpath解析库的使用