欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

利用PyCharm Profile分析异步爬虫效率详解

程序员文章站 2023-11-26 13:54:04
今天比较忙,水一下 下面的代码来源于这个视频里面提到的,github 的链接为:…() 第一个代码如下,就是一个普通的 for 循环爬虫。。 impo...

今天比较忙,水一下

下面的代码来源于这个视频里面提到的,github 的链接为:…()

第一个代码如下,就是一个普通的 for 循环爬虫。。

import requests
import bs4
from colorama import fore


def main():
 get_title_range()
 print("done.")


def get_html(episode_number: int) -> str:
 print(fore.yellow + f"getting html for episode {episode_number}", flush=true)

 url = f'https://talkpython.fm/{episode_number}'
 resp = requests.get(url)
 resp.raise_for_status()

 return resp.text


def get_title(html: str, episode_number: int) -> str:
 print(fore.cyan + f"getting title for episode {episode_number}", flush=true)
 soup = bs4.beautifulsoup(html, 'html.parser')
 header = soup.select_one('h1')
 if not header:
  return "missing"

 return header.text.strip()


def get_title_range():
 # please keep this range pretty small to not ddos my site. ;)
 for n in range(185, 200):
  html = get_html(n)
  title = get_title(html, n)
  print(fore.white + f"title found: {title}", flush=true)


if __name__ == '__main__':
 main()

这段代码跑完花了37s,然后我们用 pycharm 的 profiler 工具来具体看看哪些地方比较耗时间。

点击profile (文件名称)

利用PyCharm Profile分析异步爬虫效率详解

之后获取到得到一个详细的函数调用关系、耗时图:

利用PyCharm Profile分析异步爬虫效率详解

可以看到 get_html 这个方法占了96.7%的时间。这个程序的 io 耗时达到了97%,获取 html 的时候,这段时间内程序就在那死等着。如果我们能够让他不要在那儿傻傻地等待 io 完成,而是开始干些其他有意义的事,就能节省大量的时间。

稍微做一个计算,试用asyncio异步抓取,能将时间降低多少?

get_html这个方法耗时36.8s,一共调用了15次,说明实际上获取一个链接的 html 的时间为36.8s / 15 = 2.4s。**要是全异步的话,获取15个链接的时间还是2.4s。**然后加上get_title这个函数的耗时0.6s,所以我们估算,改进后的程序将可以用 3s 左右的时间完成,也就是性能能够提升13倍。

再看下改进后的代码。。

import asyncio
from asyncio import abstracteventloop

import aiohttp
import requests
import bs4
from colorama import fore


def main():
 # create loop
 loop = asyncio.get_event_loop()
 loop.run_until_complete(get_title_range(loop))
 print("done.")


async def get_html(episode_number: int) -> str:
 print(fore.yellow + f"getting html for episode {episode_number}", flush=true)

 # make this async with aiohttp's clientsession
 url = f'https://talkpython.fm/{episode_number}'
 # resp = await requests.get(url)
 # resp.raise_for_status()

 async with aiohttp.clientsession() as session:
  async with session.get(url) as resp:
   resp.raise_for_status()

   html = await resp.text()
   return html


def get_title(html: str, episode_number: int) -> str:
 print(fore.cyan + f"getting title for episode {episode_number}", flush=true)
 soup = bs4.beautifulsoup(html, 'html.parser')
 header = soup.select_one('h1')
 if not header:
  return "missing"

 return header.text.strip()


async def get_title_range(loop: abstracteventloop):
 # please keep this range pretty small to not ddos my site. ;)
 tasks = []
 for n in range(190, 200):
  tasks.append((loop.create_task(get_html(n)), n))

 for task, n in tasks:
  html = await task
  title = get_title(html, n)
  print(fore.white + f"title found: {title}", flush=true)


if __name__ == '__main__':
 main()

同样的步骤生成profile 图:

利用PyCharm Profile分析异步爬虫效率详解

可见现在耗时为大约3.8s,基本符合我们的预期了。

利用PyCharm Profile分析异步爬虫效率详解

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对的支持。