欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

Python3之百万并发实现方法

程序员文章站 2022-05-08 08:45:02
...

python由于GIL(全局锁)的存在,不能发挥多核的优势,在IO密集型的网络编程里,异步处理比同步处理能提升成百上千倍的效率,弥补了python性能方面的短板。

python3.4版本引入asyncio到标准库,python2x没有加这个库,python3.5又加入了async/await特性。

同步/异步的概念

同步是指完成事务的逻辑,先执行第一个事务,如果阻塞了,会一直等待,直到这个事务完成,再执行第二个事务,顺序执行。

异步是和同步相对的,异步是指在处理调用这个事务的之后,不会等待这个事务的处理结果,直接处理第二个事务去了,通过状态、通知、回调来通知调用者处理结果。

asyncio

对比同步代码和异步代码编写方面的差异,其次看下两者性能上的差距,使用sleep(1)模拟耗时1秒的io操作。

同步代码

import time
​
def hello():
    time.sleep(1)
​
def run():
    for i in range(5):
        hello()
        print(time.time())
​
if __name__ == '__main__':
    run()
​
# 结果
# 间隔约是1s
​
# 1549956123.908849
# 1549956124.9128718
# 1549956125.9164648
# 1549956126.91946
# 1549956127.922292

异步代码

import asyncio
import time
​
​
# 定义异步函数
async def hello():
    asyncio.sleep(1)
    print(time.time())
​
​
def run():
    for i in range(5):
        loop.run_until_complete(hello())
​
​
loop = asyncio.get_event_loop()
if __name__ == '__main__':
    run()
​
# 结果
# 1549956258.2929049
# 1549956258.293014
# 1549956258.293063
# 1549956258.2931032
# 1549956258.293142
​
# async def 用来定义异步函数,其内部有异步操作。每个线程有一个事件循环,主线程调用asyncio.get_event_loop()时会创建事件循环,
# 你需要把异步的任务丢给这个循环的run_until_complete()方法,事件循环会安排协同程序的执行。

aiohttp

需要并发http请求怎么办呢,通常是用requests,但requests是同步的库,如果想异步的话需要引入aiohttp。

这里引入一个类,from aiohttp import ClientSession,首先要建立一个session对象,然后用session对象去打开网页。session可以进行多项操作,比如post, get, put, head等。

基本用法

async with ClientSession() as session:
    async with session.get(url='http://www.baidu.com/') as response:

首先async def 关键字定义了这是个异步函数,await 关键字加在需要等待的操作前面,response.read()等待request响应,是个好IO操作。然后使用ClientSession类发起http请求。

多链接异步访问

我们需要请求多个URL该怎么办呢,同步的做法访问多个URL只需要加个for循环就可以了。

但异步的实现方式并没那么容易,在之前的基础上需要将hello()包装在asyncio的Future对象中,然后将Future对象列表作为任务传递给事件循环。

#!/usr/bin/env python
# -*- coding: utf-8 -*-
import asyncio
from aiohttp import ClientSession
tasks = []
async def request_run(i):
    async with ClientSession() as session:
        async with session.get(url='http://www.baidu.com/') as response:
            response = await response.read()  # 返回报文
            print(i)
​
def run():
    for i in range(5):
        task = asyncio.ensure_future(request_run(i))
        tasks.append(task)
​
​
if __name__ == '__main__':
    loop = asyncio.get_event_loop()
    run()
    loop.run_until_complete(asyncio.wait(tasks))
​
# 输出
# 0
# 1
# 3
# 4
# 2

收集http响应

要把响应一一收集到一个列表中,最后保存到本地或者打印出来要怎么实现呢,可通过asyncio.gather(*tasks) 将响应全部收集起来,具体通过下面实例来演示。

#!/usr/bin/env python
# -*- coding: utf-8 -*-
import asyncio
from aiohttp import ClientSession
tasks = []
async def request_run(i):
    async with ClientSession() as session:
        async with session.get(url='http://www.baidu.com/') as response:
            response = await response.read()
            print(i)
            print(response)
            return response
​
def run():
    for i in range(5):
        task = asyncio.ensure_future(request_run(i))
        tasks.append(task)
    result = loop.run_until_complete(asyncio.gather(*tasks))
    print(result)
​
​
if __name__ == '__main__':
    loop = asyncio.get_event_loop()
    run()

关于ValueError: too many file descriptors in select()异常解决办法

假如你的并发达到2000个,程序会报错:ValueError: too many file descriptors in select()。

报错的原因字面上看是 Python 调取的 select 对打开的文件有最大数量的限制,这个其实是操作系统的限制,linux打开文件的最大数默认是1024,windows默认是509,超过了这个值,程序就开始报错。这里我们有三种方法解决这个问题:

1、限制并发数量。(一次不要塞那么多任务,或者限制最大并发数量) 2、使用回调的方式。 3、修改操作系统打开文件数的最大限制,在系统里有个配置文件可以修改默认值,具体步骤不再说明了。

不修改系统默认配置的话,个人推荐限制并发数的方法,设置并发数为500,处理速度更快。

#!/usr/bin/env python
# -*- coding: utf-8 -*-
import asyncio
import time
from aiohttp import ClientSession
tasks = []
a = time.time()
async def request_run(i, semaphore):
    async with semaphore:
        async with ClientSession() as session:
            async with session.get(url='https://segmentfault.com/q/1010000011211509') as response:
                response = await response.read()
                tasks.append(i)  # 可以存储返回结果
​
async def run():
    semaphore = asyncio.Semaphore(500)
    to_get = [request_run(i, semaphore) for i in range(1000)]  # 总共1000任务
    await asyncio.wait(to_get)
​
​
if __name__ == '__main__':
    loop = asyncio.get_event_loop()
    loop.run_until_complete(run())
    loop.close()
    print(tasks)
    b = time.time()
    print(b-a)

文源网络,仅供学习之用,如有侵权请联系删除。

在学习Python的道路上肯定会遇见困难,别慌,我这里有一套学习资料,包含40+本电子书,800+个教学视频,涉及Python基础、爬虫、框架、数据分析、机器学习等,不怕你学不会! https://shimo.im/docs/JWCghr8prjCVCxxK/ 《Python学习资料》

关注公众号【Python圈子】,优质文章每日送达。

Python3之百万并发实现方法