Python爬虫入门教程 8-100 蜂鸟网图片爬取之三
程序员文章站
2022-04-15 12:52:03
啰嗦两句 前几天的教程内容量都比较大,今天写一个相对简单的,爬取的还是蜂鸟,依旧采用 希望你喜欢 爬取页面 本篇教程还是基于 学习 的目的,为啥选择蜂鸟,没办法,我瞎选的。 一顿熟悉的操作之后,我找到了下面的链接 这个链接返回的是JSON格式的数据 1. page =2页码,那么从1开始进行循环就好 ......
啰嗦两句
前几天的教程内容量都比较大,今天写一个相对简单的,爬取的还是蜂鸟,依旧采用aiohttp
希望你喜欢
爬取页面https://tu.fengniao.com/15/
本篇教程还是基于学习的目的,为啥选择蜂鸟,没办法,我瞎选的。
一顿熟悉的操作之后,我找到了下面的链接https://tu.fengniao.com/ajax/ajaxtupiclist.php?page=2&tagsid=15&action=getpiclists
这个链接返回的是json格式的数据
- page =2页码,那么从1开始进行循环就好了
- tags=15 标签名称,15是儿童,13是美女,6391是私房照,只能帮助你到这了,毕竟我这是
专业博客
ヾ(◍°∇°◍)ノ゙ - action=getpiclists接口地址,不变的地方
数据有了,开爬吧
import aiohttp import asyncio headers = {"user-agent": "mozilla/5.0 (windows nt 10.0; wow64) applewebkit/537.36 (khtml, like gecko) chrome/68.0.3440.106 safari/537.36", "x-requested-with": "xmlhttprequest", "accept": "*/*"} async def get_source(url): print("正在操作:{}".format(url)) conn = aiohttp.tcpconnector(verify_ssl=false) # 防止ssl报错,其中一种写法 async with aiohttp.clientsession(connector=conn) as session: # 创建session async with session.get(url, headers=headers, timeout=10) as response: # 获得网络请求 if response.status == 200: # 判断返回的请求码 source = await response.text() # 使用await关键字获取返回结果 print(source) else: print("网页访问失败") if __name__=="__main__": url_format = "https://tu.fengniao.com/ajax/ajaxtupiclist.php?page={}&tagsid=15&action=getpiclists" full_urllist= [url_format.format(i) for i in range(1,21)] event_loop = asyncio.get_event_loop() #创建事件循环 tasks = [get_source(url) for url in full_urllist] results = event_loop.run_until_complete(asyncio.wait(tasks)) #等待任务结束
上述代码在执行过程中发现,顺发了20个请求,这样子很容易就被人家判定为爬虫,可能会被封ip或者账号,我们需要对并发量进行一下控制。
使semaphore
控制同时的并发量
import aiohttp import asyncio # 代码在上面 sema = asyncio.semaphore(3) async def get_source(url): # 代码在上面 ####################### # 为避免爬虫一次性请求次数太多,控制一下 async def x_get_source(url): with(await sema): await get_source(url) if __name__=="__main__": url_format = "https://tu.fengniao.com/ajax/ajaxtupiclist.php?page={}&tagsid=15&action=getpiclists" full_urllist= [url_format.format(i) for i in range(1,21)] event_loop = asyncio.get_event_loop() #创建事件循环 tasks = [x_get_source(url) for url in full_urllist] results = event_loop.run_until_complete(asyncio.wait(tasks)) #等待任务结束
走一波代码,出现下面的结果,就可以啦!
在补充上图片下载的代码
import aiohttp import asyncio import json # 代码去上面找 async def get_source(url): print("正在操作:{}".format(url)) conn = aiohttp.tcpconnector(verify_ssl=false) # 防止ssl报错,其中一种写法 async with aiohttp.clientsession(connector=conn) as session: # 创建session async with session.get(url, headers=headers, timeout=10) as response: # 获得网络请求 if response.status == 200: # 判断返回的请求码 source = await response.text() # 使用await关键字获取返回结果 ############################################################ data = json.loads(source) photos = data["photos"]["photo"] for p in photos: img = p["src"].split('?')[0] try: async with session.get(img, headers=headers) as img_res: imgcode = await img_res.read() with open("photos/{}".format(img.split('/')[-1]), 'wb') as f: f.write(imgcode) f.close() except exception as e: print(e) ############################################################ else: print("网页访问失败") # 为避免爬虫一次性请求次数太多,控制一下 async def x_get_source(url): with(await sema): await get_source(url) if __name__=="__main__": #### 代码去上面找
图片下载成功,一个小爬虫,我们又写完了,美滋滋
上一篇: HTML5开发移动web应用——SAP UI5篇(5)
下一篇: Ajax之一 简介篇
推荐阅读
-
Python爬虫入门教程 6-100 蜂鸟网图片爬取之一
-
Python爬虫入门教程 7-100 蜂鸟网图片爬取之二
-
Python爬虫入门教程 26-100 知乎文章图片爬取器之二
-
Python爬虫入门教程 25-100 知乎文章图片爬取器之一
-
Python爬虫入门教程 8-100 蜂鸟网图片爬取之三
-
python爬虫入门教程(三):淘女郎爬虫 ( 接口解析 | 图片下载 )
-
Python爬虫:第三章 数据解析 example3 正则解析-分页爬取-爬取糗事百科所有页图片(12)
-
Python爬虫:第三章 数据解析 example1 爬取图片(10)
-
Python爬虫入门教程 8-100 蜂鸟网图片爬取之三
-
Python爬虫入门教程 25-100 知乎文章图片爬取器之一