requests模块 简单使用
程序员文章站
2022-04-15 15:30:13
[TOC] requests模块 简单使用 Anaconda简单了解 简单了解 requests模块 什么是requests模块? Python中封装好的一个基于网络请求的模块。 requests模块的作用? 用来模拟浏览器发请求 requests模块的环境安装: pip install reque ......
requests模块 简单使用
anaconda简单了解
- anaconda是一个集成环境(基于机器学习和数据分析的开发环境) - 基于浏览器的一种可视化开发工具:jupyter notebook - 可以在指定目录的终端中录入jupyter notebook指令,然后启动服务。 - cell是分为不同模式的: - code:编写python代码 - markdown:编写笔记 - 快捷键: - 添加cell:a,b - 删除cell:x - 执行:shift+enter - tab:缩进4个空格 - 切换cell的模式: - m - y - 打开帮助文档:shift+tab
简单了解 requests模块
- 什么是requests模块?
- python中封装好的一个基于网络请求的模块。
- requests模块的作用?
- 用来模拟浏览器发请求
- requests模块的环境安装:
- pip install requests
- requests模块的编码流程:
- 1.指定url
- 2.发起请求
- 3.获取响应数据
- 4.持久化存储
使用requests模块 爬取搜狗首页源码数据
#爬取搜狗首页的页面源码数据 import requests #1.指定url url = 'https://www.sogou.com/' #2.请求发送get:get返回值是一个响应对象 response = requests.get(url=url) #3.获取响应数据 page_text = response.text #返回的是字符串形式的响应数据 #4.持久化存储 with open('sogou.html','w',encoding='utf-8') as fp: fp.write(page_text)
实现一个简易的网页采集器
#实现一个简易的网页采集器 爬取搜狗搜索结果 #需要让url携带的参数动态化 import requests url = 'https://www.sogou.com/web' #实现参数动态化 wd = input('enter a key:') params = { 'query':wd } #在请求中需要将请求参数对应的字典作用到params这个get方法的参数中 response = requests.get(url=url,params=params) page_text = response.text filename = wd+'.html' with open(filename,'w',encoding='utf-8') as fp: fp.write(page_text) #执行结果 #输入 enter a key:郭楷丰 上述代码执行后发现: 1.出现了乱码 2.数据量级不对
解决乱码问题
import requests url = 'https://www.sogou.com/web' #实现参数动态化 wd = input('enter a key:') params = { 'query':wd } #在请求中需要将请求参数对应的字典作用到params这个get方法的参数中 response = requests.get(url=url,params=params) response.encoding = 'utf-8' #修改响应数据的编码格式 page_text = response.text filename = wd+'.html' with open(filename,'w',encoding='utf-8') as fp: fp.write(page_text) #执行结果 enter a key:jay ua检测:门户网站通过检测请求载体的身份标识判定改请求是否为爬虫发起的请求 ua伪装:mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/76.0.3809.132 safari/537.36
解决ua检测问题
import requests url = 'https://www.sogou.com/web' #实现参数动态化 wd = input('enter a key:') params = { 'query':wd } headers = { 'user-agent':'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/76.0.3809.132 safari/537.36' } #在请求中需要将请求参数对应的字典作用到params这个get方法的参数中 response = requests.get(url=url,params=params,headers=headers) response.encoding = 'utf-8' #修改响应数据的编码格式 page_text = response.text filename = wd+'.html' with open(filename,'w',encoding='utf-8') as fp: fp.write(page_text)
ua检测 是一种反爬机制,判断访问是否合法
requests模块 爬取豆瓣电影的详情数据
#爬取的是豆瓣电影中电影的详情数据 https://movie.douban.com/typerank?type_name=%e7%88%b1%e6%83%85&type=13&interval_id=100:90&action= #分析:当滚动条被滑动到页面底部的时候,当前页面发生了局部刷新(ajax的请求) 动态加载的页面数据 - 是通过另一个单独的请求请求到的数据 import requests url = 'https://movie.douban.com/j/chart/top_list' start = input('您想从第几部电影开始获取:') limit = input('您想获取多少电影数据:') dic = { 'type': '13', 'interval_id': '100:90', 'action': '', 'start': start, 'limit': limit, } response = requests.get(url=url,params=dic,headers=headers) page_text = response.json() #json()返回的是序列化好的实例对象 for dic in page_text: print(dic['title']+':'+dic['score'])
页面分析流程
requests模块 爬取肯德基餐厅查询结果
#肯德基餐厅查询http://www.kfc.com.cn/kfccda/storelist/index.aspx import requests url = 'http://www.kfc.com.cn/kfccda/ashx/getstorelist.ashx?op=keyword' for page in range(1,2): data = { 'cname': '', 'pid': '', 'keyword': '西安', 'pageindex': str(page), 'pagesize': '5', } response = requests.post(url=url,headers=headers,data=data) print(response.json())
分析页面
爬取数据
{ 'table': [{ 'rowcount': 33 }], 'table1': [{ 'rownum': 1, 'storename': '东大街(西安)', 'addressdetail': '东大街53号', 'pro': '24小时,wi-fi,点唱机,礼品卡', 'provincename': '青海省', 'cityname': '西宁市' }, { 'rownum': 2, 'storename': '同安', 'addressdetail': '同安区西安路西安广场一层二层', 'pro': '24小时,wi-fi,点唱机,礼品卡,生日餐会', 'provincename': '福建省', 'cityname': '厦门市' }, { 'rownum': 3, 'storename': '成义', 'addressdetail': '西安路60号民勇大厦一楼', 'pro': '24小时,wi-fi,点唱机,店内参观,礼品卡', 'provincename': '辽宁省', 'cityname': '大连市' }, { 'rownum': 4, 'storename': '罗斯福', 'addressdetail': '西安路139号1号', 'pro': 'wi-fi,点唱机,店内参观,礼品卡', 'provincename': '辽宁省', 'cityname': '大连市' }, { 'rownum': 5, 'storename': '贺兰山(西安)', 'addressdetail': '游艺东街6号一层', 'pro': '24小时,wi-fi,店内参观,礼品卡,生日餐会', 'provincename': '宁夏', 'cityname': '石嘴山市' }] } #可以根据自己需求,获取想要的数据
爬取药监总局中相关企业的详情信息
需求
- 爬取药监总局中相关企业的详情信息http://125.35.6.84:81/xk/ 获取企业名和法人 - 需求分析 - 确定页面中企业相关数据是否为动态加载? - 相关的企业信息是动态加载出来的 - 通过抓包工具实现全局搜索,定位动态加载数据对应的数据包! - post:http://125.35.6.84:81/xk/itownet/portalaction.do?method=getxkzslist - 该请求返回的响应数据是一组json串,通过对json串的一个简单分析,没有找到企业详情页的url,但是找到个每一家企业的id - 每一家企业详情页的url,域名都是一样的,只有请求参数id值不同 - 可以使用同一个域名结合着不同企业的id值拼接成一家完整企业详情页url - 判断企业详情页中的数据是否为动态加载? - 通过抓包工具检测,发现企业详情信息在详情页中为动态加载的数据 - 通过抓包工具实现全局搜索定位动态加载数据对应的数据包 - post-url:http://125.35.6.84:81/xk/itownet/portalaction.do?method=getxkzsbyid - 请求参数:id=xxxxx - 请求到的json串就是我们最终想要的企业详情信息数据
#数据格式化显示 { "businesslicensenumber": "91320116302788753r", "businessperson": "张凤平", "certstr": "一般液态单元(啫喱类、护发清洁类、护肤水类);膏霜乳液单元(护发类、护肤清洁类);粉单元(浴盐类)", "citycode": "", "countycode": "", "creatuser": "", "createtime": "", "endtime": "", "epsaddress": "南京市江北新区中山科技园科创大道9号b3栋一层", "epsname": "江苏正东生物科技有限公司", "epsproductaddress": "南京市江北新区中山科技园科创大道9号b3栋一层", "id": "", "isimport": "n", "legalperson": "张凤平", "offdate": "", "offreason": "", "parentid": "", "preid": "", "processid": "20190620105304202w1ugs", "productsn": "苏妆20160159", "provincecode": "", "qfdate": "", "qfmanagername": "江苏省药品监督管理局", "qualityperson": "高光辉", "rcmanagerdepartname": "江苏省药品监督管理局南京检查*", "rcmanageruser": "史祖如、杨敏", "starttime": "", "xkcompletedate": null, "xkdate": "2024-10-08", "xkdatestr": "2019-10-08", "xkname": "倪永兵", "xkproject": "", "xkremark": "", "xktype": "202" }
代码
import requests headers = { "user-agent": "mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/75.0.3770.80 safari/537.36" } #获取每一家企业的id url = 'http://125.35.6.84:81/xk/itownet/portalaction.do?method=getxkzslist' for page in range(1,3): print('正在爬取第{}页的数据......'.format(page)) data = { 'on': 'true', 'page': str(page), 'pagesize': '15', 'productname': '', 'conditiontype': '1', 'applyname': '', 'applysn':'', } company_data = requests.post(url,headers=headers,data=data).json() for dic in company_data['list']: _id = dic['id'] detail_url = 'http://125.35.6.84:81/xk/itownet/portalaction.do?method=getxkzsbyid' data = { 'id':_id } detail_data = requests.post(url=detail_url,data=data,headers=headers).json() print(detail_data['epsname'],detail_data['legalperson']) #爬取结果 正在爬取第1页的数据...... 江苏正东生物科技有限公司 张凤平 尚赫(天津)科技开发有限公司 陈旻君 天津施文化妆品有限公司 tomas espinosa braniff cespedes 天津天狮生物工程有限公司 李宝娥 江苏西宏生物医药有限公司 张新明 广州唯妍汇生物科技有限公司 谢梅宣 广州医美堂生物技术有限公司 李海燕 佰草世家生物科技(佛山)有限公司 唐其建 广州市白云区大荣精细化工有限公司 胡志标 佛山市南海区丹喜露日用护理品有限公司 黄彦淳 广州市碧莹化妆品有限公司 郭正梅 广州市阿西娜化妆品制造有限公司 廖翠琴 扬州扬大联环药业基因工程有限公司 吴文格 江苏易佳洁化妆品有限公司 陈飞 广东审美生物科技有限公司 温武泉 正在爬取第2页的数据...... 东莞市至纯生物科技有限公司 罗仁华 恩平安益日化有限公司 张维新 中万恩(佛山)科技有限公司 杨军 福建绿植源生化科技有限公司 陈祥斌 帆艳华(广州)生物科技有限公司 白石华 广东省佛山市顺德区仙渡化妆品有限公司 贺丽 佛山市顺德信元生物科技有限公司 毛昭庆 广州柏灡化妆品有限公司 彭凤兰 广州中品生物科技有限公司 丁琳凤 广州中草集化妆品有限公司 许明良 广州市佳桐化妆品有限公司 吴辉军 *西法伊欧丝玛环保科技有限公司 热洋古丽·卡得 襄阳市杨四郎生物科技有限公司 杨华傲 广西湾昊生物科技有限公司 黄祖源 广州婵妍生物科技有限公司 王旭光
分析+总结
- 如何检测页面中是否存在动态加载的数据? - 基于抓包工具实现 - 先捕获网站请求后所有的数据包 - 在数据包中定位到地址栏所对应请求的数据包,在response选项卡对应的数据中进行局部搜索(页面中的某一组内容) - 可以搜索到:爬取的数据不是动态加载的 - 没有搜索到:爬取的数据是动态加载的 - 如何定位动态加载的数据在哪个数据包中呢? - 进行全局搜索
作 者:
出 处:
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角 【推荐】一下。您的鼓励是博主的最大动力!
自 勉:生活,需要追求;梦想,需要坚持;生命,需要珍惜;但人生的路上,更需要坚强。带着感恩的心启程,学会爱,爱父母,爱自己,爱朋友,爱他人。
下一篇: C++ Traits Classes