python 之 并发编程(进程池与线程池、同步异步阻塞非阻塞、线程queue)
程序员文章站
2024-01-23 14:59:22
9.11 进程池与线程池 池子使用来限制并发的任务数目,限制我们的计算机在一个自己可承受的范围内去并发地执行任务 池子内什么时候装进程:并发的任务属于计算密集型 池子内什么时候装线程:并发的任务属于IO密集型 进程池: 线程池: 9.112 基于多线程实现并发的套接字通信(使用线程池) 服务端: f ......
9.11 进程池与线程池
池子使用来限制并发的任务数目,限制我们的计算机在一个自己可承受的范围内去并发地执行任务
池子内什么时候装进程:并发的任务属于计算密集型 池子内什么时候装线程:并发的任务属于io密集型
进程池:
from concurrent.futures import processpoolexecutor,threadpoolexecutor import time,os,random def task(x): print('%s 接客' %os.getpid()) time.sleep(random.randint(2,5)) return x**2 if __name__ == '__main__': # processpoolexecutor创建并开启指定数目的进程 p=processpoolexecutor() # 默认开启的进程数是cpu的核数 for i in range(20): p.submit(task,i) # 一下并行执行四个任务,等其中一个任务执行完后再执行下一个
线程池:
from concurrent.futures import processpoolexecutor,threadpoolexecutor import time,os,random def task(x): print('%s 接客' %x) time.sleep(random.randint(2,5)) return x**2 if __name__ == '__main__': # threadpoolexecutor创建并开启指定数目的线程 p=threadpoolexecutor(4) # 默认开启的线程数是cpu的核数*5 for i in range(20): p.submit(task,i) # 一下并发执行四个任务,等其中一个任务执行完后再并发执行下一个
9.112 基于多线程实现并发的套接字通信(使用线程池)
服务端:
from socket import * from threading import thread from concurrent.futures import processpoolexecutor,threadpoolexecutor tpool=threadpoolexecutor(3) #threadpoolexecutor创建并开启指定数目的线程 def communicate(conn,client_addr): while true: # 通讯循环 try: data = conn.recv(1024) if not data: break conn.send(data.upper()) except connectionreseterror: break conn.close() def server(): server=socket(af_inet,sock_stream) server.bind(('127.0.0.1',8080)) server.listen(5) while true: # 链接循环 conn,client_addr=server.accept() print(client_addr) # t=thread(target=communicate,args=(conn,client_addr)) # t.start() tpool.submit(communicate,conn,client_addr)#一下并发执行3个任务,等其中一个任务执行完后再并发执行下一个 server.close() if __name__ == '__main__': server()
客户端:
from socket import * client=socket(af_inet,sock_stream) client.connect(('127.0.0.1',8080)) while true: msg=input('>>>: ').strip() if not msg:continue client.send(msg.encode('utf-8')) data=client.recv(1024) print(data.decode('utf-8')) client.close()
9.12 同步异步阻塞非阻塞
阻塞与非阻塞指的是程序的两种运行状态:
阻塞:遇到 i/o 就发生阻塞,程序一旦遇到阻塞操作就会停在原地,并且立刻释放cpu资源
非阻塞(就绪态或运行态):没有遇到 i/o 操作,或者通过某种手段让程序即便是遇到 i/o 操作也不会停在原地,执行其他操作,力求尽可能多的占有cpu
同步与异步指的是提交任务的两种方式:
同步调用:提交完任务后,就在原地等待,直到任务运行完毕后,拿到任务的返回值,才继续执行下一行代码
异步调用:提交完任务后,不在原地等待,直接执行下一行代码
from concurrent.futures import processpoolexecutor,threadpoolexecutor import time,os,random #from multiprocessing import pool def task(x): print('%s 接客' %x) time.sleep(random.randint(1,3)) return x**2 if __name__ == '__main__': # 异步调用 p=threadpoolexecutor(4) # 默认开启的线程数是cpu的核数*5 obj_l=[] for i in range(10): obj=p.submit(task,i) obj_l.append(obj) # p.close() # p.join() p.shutdown(wait=true)# shutdown指的是不能再往进程池内提交任务,wait=true指等待进程池或线程池内所有的任务都运行完毕 print(obj_l[3].result()) # 9 #最后拿结果 print('主') # 同步调用 p=threadpoolexecutor(4) # 默认开启的线程数是cpu的核数*5 for i in range(10): print(p.submit(task,i).result()) print('主')
9.121 异步调用+回调机制
问题:
1、任务的返回值不能得到及时的处理,必须等到所有任务都运行完毕才能统一进行处理
2、解析的过程是串行执行的,如果解析一次需要花费2s,解析9次则需要花费18s
基于进程池:
from concurrent.futures import processpoolexecutor,threadpoolexecutor import requests import os import time import random def get(url): print('%s get %s' %(os.getpid(),url)) response=requests.get(url) time.sleep(random.randint(1,3)) if response.status_code == 200: return response.text def pasrse(obj): # 干解析的活 res=obj.result() # 回调拿结果 print('%s 解析结果为:%s' %(os.getpid(),len(res))) # 4108 解析结果为:2443 if __name__ == '__main__': urls=[ 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.python.org', ] pool=processpoolexecutor(4) for url in urls: obj=pool.submit(get,url) #parse函数会在obj对应的任务执行完毕后自动执行,会把obj自动传给parse obj.add_done_callback(pasrse) #四个进程并发爬取信息,主进程在执行解析操作 print('主进程',os.getpid()) # 主进程 4108
基于线程池:
from concurrent.futures import processpoolexecutor,threadpoolexecutor from threading import current_thread import requests import os import time import random def get(url): print('%s get %s' %(current_thread().name,url)) response=requests.get(url) time.sleep(random.randint(1,3)) if response.status_code == 200: return response.text def pasrse(obj): # 干解析的活 res=obj.result() print('%s 解析结果为:%s' %(current_thread().name,len(res)))#threadpoolexecutor-0_1 解析结果为: #2443 if __name__ == '__main__': #threadpoolexecutor-0_3 解析结果为:2443 urls=[ 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.baidu.com', 'https://www.python.org', ] pool=threadpoolexecutor(4) for url in urls: obj=pool.submit(get,url) #parse函数会在obj对应的任务执行完毕后自动执行,会把obj自动传给parse obj.add_done_callback(pasrse) #四个线程并发爬取信息,空闲者执行解析操作 print('主线程',current_thread().name) #主线程 mainthread
队列:先进先出 queue.queue()
import queue q=queue.queue(3) q.put(1) q.put(2) q.put(3) # q.put(4) 阻塞 print(q.get()) #1 print(q.get()) #2 print(q.get()) #3
堆栈:后进先出 queue.lifoqueue()
import queue q=queue.lifoqueue(3) q.put('a') q.put('b') q.put('c') print(q.get()) #c print(q.get()) #b print(q.get()) #a
优先级队列:可以以小元组的形式往队列里存值,第一个元素代表优先级,数字越小优先级越高
priorityqueue()
import queue q=queue.priorityqueue(3) q.put((10,'user1')) q.put((-3,'user2')) q.put((-2,'user3')) print(q.get()) #(-3, 'user2') print(q.get()) #(-2, 'user3') print(q.get()) #(10, 'user1')