欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Python全栈之进程和守护进程

程序员文章站 2022-03-08 19:49:15
目录1. 理解进程2. 进程的语法3. join自定义进程类4. 守护进程总结1. 理解进程进程的概念:(process)进程就是正在运行的程序,它是操作系统中,资源分配的最小单位.资源分配:分配的是...

1. 理解进程

进程的概念:(process

进程就是正在运行的程序,它是操作系统中,资源分配的最小单位.
资源分配:分配的是cpu和内存等物理资源
进程号是进程的唯一标识
同一个程序执行两次之后是两个进程
进程和进程之间的关系: 数据彼此隔离,通过socket通信

并行和并发

并发:一个cpu同一时间不停执行多个程序
并行:多个cpu同一时间不停执行多个程序

Python全栈之进程和守护进程

cpu的进程调度的方法:

# 先来先服务fcfs(first come first server):先来的先执行
# 短作业优先算法:分配的cpu多,先把短的算完
# 时间片轮转算法:每一个任务就执行一个时间片的时间.然后就执行其他的.
# 多级反馈队列算法
越是时间长的,cpu分配的资源越少,优先级靠后
越是时间短的,cpu分配的资源越多

Python全栈之进程和守护进程

1、2、3、4作业分别给0.4秒,1作业完成,2、3、4作业没有完成,会放到二级队列中,把后续短的作业放到一级队列。二级队列中的作业分别给0.3秒,2号作业完成,3、4号作业放到三级队列,分别给0.2秒,3作业完成,4号没有完成,放到四号队列,给0.1秒进行处理,1号作业有可能是下载作业。

进程三状态图:

Python全栈之进程和守护进程

(1)就绪(ready)状态
	只剩下cpu需要执行外,其他所有资源都已分配完毕 称为就绪状态。
(2)执行(running)状态
	cpu开始执行该进程时称为执行状态。
(3)阻塞(blocked)状态
	由于等待某个事件发生而无法执行时,便是阻塞状态,cpu执行其他进程.例如,等待i/o完成input、申请缓冲区不能满足等等。	

Python全栈之进程和守护进程

同步 异步 / 阻塞 非阻塞:

场景在多任务当中
同步:必须等我这件事干完了,你在干,只有一条主线,就是同步
异步:没等我这件事情干完,你就在干了,有两条主线,就是异步
阻塞:比如代码有了input,就是阻塞,必须要输入一个字符串,否则代码不往下执行
非阻塞:没有任何等待,正常代码往下执行.
# 同步阻塞  :效率低,cpu利用不充分
# 异步阻塞  :比如socketserver,可以同时连接多个,但是彼此都有recv
# 同步非阻塞:没有类似input的代码,从上到下执行.默认的正常情况代码
# 异步非阻塞:效率是最高的,cpu过度充分,过度发热 液冷

守护进程:

#可以给子进程贴上守护进程的名字,该进程会随着主进程代码执行完毕而结束(为主进程守护)
(1)守护进程会在主进程代码执行结束后就终止
(2)守护进程内无法再开启子进程,否则抛出异常(了解)

锁(lock):

lock.acquire()# 上锁
lock.release()# 解锁
#同一时间允许一个进程上一把锁 就是lock
	加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,没错,速度是慢了,但牺牲速度却保证了数据安全。
#同一时间允许多个进程上多把锁 就是[信号量semaphore]
	信号量是锁的变形: 实际实现是 计数器 + 锁,同时允许多个进程上锁	
# 互斥锁lock : 互斥锁就是进程的互相排斥,谁先抢到资源,谁就上锁改资源内容,为了保证数据的同步性
# 注意:多个锁一起上,不开锁,会造成死锁.上锁和解锁是一对.

2. 进程的语法

# ### 进程 process
import os,time
"""
# ps -aux 查看进程号
# ps -aux | grep 2784 过滤查找2784这个进程
# 强制杀死进程
kill -9 进程号
# 获取当前进程号
res = os.getpid()
print(res)
# 获取当前进程的父进程
res = os.getppid()
print(res)
"""
from multiprocessing import process
# (1) 进程的使用
"""
def func():
	# 1.子进程id:3561,2.父进程id:3560
	print("1.子进程id:{},2.父进程id:{}".format(os.getpid(),os.getppid()))
if __name__ == "__main__":
	# 创建子进程 ,返回进程对象
	p = process(target=func)
	# 调用子进程
	p.start()
	# 3.主进程id:3560,4.父进程id:3327
	print("3.主进程id:{},4.父进程id:{}".format(os.getpid(),os.getppid()))
"""
# (2) 创建带有参数的进程
"""
def func(n):
	time.sleep(1)
	for i in range(1,n+1): # 0 ~ n-1
		print(i)
		print("1.子进程id:{},2.父进程id:{}".format(os.getpid(),os.getppid()))
if __name__ == "__main__":
	n = 6
	# target=指定任务  args = 参数元组
	p = process(target=func , args=(n,))
	p.start()
	for i in range(1,n+1):
		print("*" * i)
"""
# (3) 进程之间的数据彼此隔离
"""
total = 100
def func():
	global total
	total +=1
	print(total)
if __name__ == "__main__":
	p = process(target=func)
	p.start()
	time.sleep(1)
	print(total)
"""
# (4) 进程之间的异步性
"""
1.多个进程之间是异步的并发程序,因为cpu调度策略问题,不一定先执行哪一个任务
默认来看,主进程执行速度稍快于子进程,因为子进程创建时,要分配空间资源可能会阻塞
阻塞态,cpu会立刻切换任务,以让程序整体的速度效率最大化
2.默认主进程要等待所有的子进程执行结束之后,在统一关闭程序,释放资源
若不等待,子进程可能不停的在系统的后台占用cpu和内存资源形成僵尸进程.
为了方便进程的管理,主进程默认等待子进程.在统一关闭程序;
"""
def func(n):
	print("1.子进程id:{},2.父进程id:{}".format(os.getpid(),os.getppid()) , n )
if __name__ == "__main__":
	for i in range(1,11):
		p = process(target=func,args=(i,))
		p.start()
	print("主进程执行结束了 ... " , os.getpid() )

3. join自定义进程类

子进程全部执行完,在执行主进程

# ### 1.同步主进程和子进程 : join
"""必须等待当前的这个子进程执行结束之后,再去执行下面的代码;,用来同步子父进程;"""
from multiprocessing import process
import time 
# (1) join 的基本使用
"""
def func():
	print("发送第一封邮件 :  我的亲亲领导,你在么?")	
if __name__ == "__main__":
	p = process(target=func)
	p.start()
	# time.sleep(0.1)
	p.join()
	print("发送第二封邮件 :  我想说,工资一个月给我涨到6万")
"""
# (2) 多进程场景中的join
"""
def func(i):
	time.sleep(1)
	print("发送第一封邮件{} :  我的亲亲领导,你在么?".format(i))
if __name__ == "__main__":
	lst = []
	for i in range(1,11):
		p = process(target=func,args=(i,))
		p.start()
		# join 写在里面会导致程序变成同步
		lst.append(p)
	# 把所有的进程对象都放在列表中,统一使用.join进行管理;
	for i in lst:
		i.join()
		
	print("发送第二封邮件 :  我想说,工资一个月给我涨到6万")
"""
# ### 2使用自定义进程类,创建进程
# (1) 基本语法
import os
class myprocess(process):
	def run(self):
		print("1.子进程id:{},2.父进程id:{}".format(os.getpid(),os.getppid()))
if __name__ == "__main__":
	p = myprocess()
	p.start()
	
# (2) 带有参数的自定义进程类
class myprocess(process):
	def __init__(self,name):
		# 手动调用一下父类的构造方法,完成系统成员的初始化;
		super().__init__()
		self.name = name
	def run(self):
		print("1.子进程id:{},2.父进程id:{}".format(os.getpid(),os.getppid()))
		print(self.name)
if __name__ == "__main__":
	p = myprocess("我是参数")
	p.start()

4. 守护进程

# ### 守护进程
"""
守护进程守护的是主进程,当主进程所有代码执行完毕之后,立刻强制杀死守护进程;
"""

from multiprocessing import process
import time
# (1) 基本语法
"""
def func():
	# time.sleep(1)
	print("start... 当前的子进程")
	print("end ...  当前的子进程")

if __name__ == "__main__":
	p = process(target=func)
	# 在进程启动之前,设置守护进程
	p.daemon = true	
	p.start()	
	print("主进程执行结束 ... ")
"""
# (2) 多个子进程的守护场景;
"""默认主进程等待所有非守护进程,也就是子进程执行结束之后,在关闭程序,释放资源
守护进程只要在主进程代码执行结束时,就会自动关闭;
"""
"""
def func1():
	print("start ... func1 执行当前子进程 ... ")
	print("end ...   func1 结束当前子进程 ... ")
def func2():
	count = 1
	while true:
		print("*" * count)
		time.sleep(1)
		count += 1
if __name__ == "__main__":
	p1 = process(target=func1)
	p2 = process(target=func2)
	# 把p2这个进程变成守护进程;
	p2.daemon = true
	p1.start()
	p2.start()
	print("主进程执行结束 ... ")
"""
# (3) 守护进程用途: 监控报活
def alive():
	while true:
		print("3号服务器向总监控服务器发送报活信息: i am ok~")
		time.sleep(1)
def func():
	while true:
		try:
			print("3号服务器负责抗住3万用户量的并发访问...")
			time.sleep(3)
			# 主动抛出执行错误的异常,触发except分支
			raise runtimeerror			
		except:
			print("3号服务器扛不住了.. 快来修理我..")
			break
			
if __name__ == "__main__":
	p1 = process(target=alive)
	p2 = process(target=func)
	p1.daemon = true
	p1.start()
	p2.start()
	# 必须等待p2这个子进程执行完毕之后,再放行主进程下面的代码
	# 下面主进程代码执行结束,立刻杀死守护进程,失去了报活功能;
	p2.join()
	
	print("主进程执行结束  .... ")

#作业:
""" 使用多进程的方式  完成tcp服务端的并发 """

小提示:

在调用的时候触发装饰器
连续发包的时候才会粘包
容器不能转化成字节流,机器交互用json
文件对象是迭代器,迭代器返回的数据是一行行返回的
创建子进程的时候,要为其分配资源,处于堵塞状态,
会去执行下面的程序,这就是异步执行,两条主线
不刷新页面就能发文数据的技术叫ajax,是一种异步程序
进程是典型的异步程序
看一下super()这个函数
默认主进程走完了守护进程会立即被杀死,但是会等待子进程运行完毕

总结

本篇文章就到这里了,希望能够给你带来帮助,也希望您能够多多关注的更多内容!