OpenCV学习之图像的分割与修复详解
背景
图像分割本质就是将前景目标从背景中分离出来。在当前的实际项目中,应用传统分割的并不多,大多是采用深度学习的方法以达到更好的效果;当然,了解传统的方法对于分割的整体认知具有很大帮助,本篇将介绍些传统分割的一些算法;
一、分水岭法
原理图如下:
利用二值图像的梯度关系,设置一定边界,给定不同颜色实现分割;
实现步骤:
标记背景 —— 标记前景 —— 标记未知区域(背景减前景) —— 进行分割
函数原型:
watershed(img,masker):分水岭算法,其中masker表示背景、前景和未知区域;
distancetransform(img,distancetype,masksize):矩离变化,求非零值到最近的零值的距离;
connectedcomponents(img,connectivity,…):求连通域;
代码实现:
img = cv2.imread('water_coins.jpeg') gray = cv2.cvtcolor(img, cv2.color_bgr2gray) # 加入cv2.thresh_otsu表示自适应阈值(实现更好的效果) ret, thresh = cv2.threshold(gray, 100, 255, cv2.thresh_binary_inv + cv2.thresh_otsu) # 开运算(去噪点) kernel = np.ones((3,3), np.int8) open1 = cv2.morphologyex(thresh, cv2.morph_open, kernel, iterations = 2) #膨胀 beijing = cv2.dilate(open1, kernel, iterations = 1) # 获取前景 tmp = cv2.distancetransform(open1, cv2.dist_l2, 5) ret, qianjing = cv2.threshold(tmp, 0.7*tmp.max(), 255, cv2.thresh_binary) # 获取未知区域 beijingj = np.uint8(beijing) qianjing = np.uint8(qianjing) unknow = cv2.subtract(beijing, qianjing) # 创建连通域 ret, masker = cv2.connectedcomponents(qianjing) masker = masker + 1 masker[unknow==255] = 0 # 进行图像分割 result = cv2.watershed(img, masker) img[result == -1] = [0, 0, 255] cv2.imshow('result', img) cv2.waitkey(0)
二、grabcut法
原理:通过交互的方式获得前景物体;
1、用户指定前景的大体区域,剩下的为背景区域;
2、用户可以明确指定某些地方为前景或背景;
3、采用分段迭代的方法分析前景物体形成模型树;
4、根据权重决定某个像素是前景还是背景;
函数原型:
grabcut(img,mask,rect,bgdmodel,fbgmodel,5,mode)
mask:表示生成的掩码,函数输出的值,其中0表示背景、1表示前景、2表示可能背景、3表示可能前景;
代码如下:
class app: flag_rect = false rect=(0, 0, 0, 0) startx = 0 starty = 0 def onmouse(self, event, x, y, flags, param): if event == cv2.event_lbuttondown: self.flag_rect = true self.startx = x self.starty = y print("lbuttiondown") elif event == cv2.event_lbuttonup: self.flag_rect = false cv2.rectangle(self.img, (self.startx, self.starty), (x, y), (0, 0, 255), 3) self.rect = (min(self.startx, x), min(self.starty, y), abs(self.startx - x), abs(self.starty -y)) print("lbuttionup") elif event == cv2.event_mousemove: if self.flag_rect == true: self.img = self.img2.copy() cv2.rectangle(self.img, (self.startx, self.starty), (x, y), (255, 0, 0), 3) print("mousemove") print("onmouse") def run(self): print("run...") cv2.namedwindow('input') cv2.setmousecallback('input', self.onmouse) self.img = cv2.imread('./lena.png') self.img2 = self.img.copy() self.mask = np.zeros(self.img.shape[:2], dtype=np.uint8) self.output = np.zeros(self.img.shape, np.uint8) while(1): cv2.imshow('input', self.img) cv2.imshow('output', self.output) k = cv2.waitkey(100) if k == 27: break if k == ord('g'): bgdmodel = np.zeros((1, 65), np.float64) fgdmodel = np.zeros((1, 65), np.float64) cv2.grabcut(self.img2, self.mask, self.rect, bgdmodel, fgdmodel, 1, cv2.gc_init_with_rect) # 注意np.where的用法可以用来筛选前景 mask2 = np.where((self.mask==1)|(self.mask==3), 255, 0).astype('uint8') self.output = cv2.bitwise_and(self.img2, self.img2, mask=mask2)
由于效果并不是特别明显,并且运行时耗时会比较长,在这里就不展示了;
注意:np.where的用法需要掌握,可以将一个矩阵中选定的值与未选定的值做二值化的处理;
三、meanshift法
实现原理:
并不是用来进行图像分割的,而是在色彩层面的平滑滤波;
中和色彩分布相近的颜色,平滑色彩细节,腐蚀掉面积较小的颜色区域;
以图像上任意点p为圆心,半径为sp,色彩幅值为sr进行不断的迭代;
函数原型:
pyrmeanshiftfiltering(img,sp,sr,…)
代码实现:
img = cv2.imread('flower.png') result = cv2.pyrmeanshiftfiltering(img, 20, 30) cv2.imshow('img', img) cv2.imshow('result', result) cv2.waitkey(0)
通过该函数可以实现色彩的平滑处理,做特效也是不错的(有种卡通化的效果),虽然该函数并不能直接做图像分割,但处理后的图像可以通过canny算法进行边缘检测;
canny代码:
img = cv2.imread('key.png') result = cv2.pyrmeanshiftfiltering(img, 20, 30) img_canny = cv2.canny(result, 150, 300) contours, _ = cv2.findcontours(img_canny, cv2.retr_external, cv2.chain_approx_simple) cv2.drawcontours(img, contours, -1, (0, 0, 255), 2) cv2.imshow('img', img) cv2.imshow('result', result) cv2.imshow('canny', img_canny) cv2.waitkey(0)
四、mog前景背景分离法
首先需要了解视频的一些原理:
- 视频是一组连续帧组成的(一帧也可以看作一副图像)
- 帧与帧之间关系密切(又称为gop)
- 在gop中,背景几乎是不变的
主要有以下几种方法:
1、mog去背景
原理:混合高斯模型为基础的前景、背景分割法;
函数原型:
createbackgroundsubtractormog(其中的默认值就不做讲解了)
代码实战:
cap = cv2.videocapture('./vtest.avi') mog = cv2.bgsegm.createbackgroundsubtractormog() while(true): ret, frame = cap.read() mask = mog.apply(frame) cv2.imshow('img', mask) k = cv2.waitkey(10) if k == 27: break cap.release() cv2.destroyallwindows()
五、拓展方法
1、mog2
说明:与mog算法类似,但对于亮度产生的阴影有更好的识别效果,噪点更多;
函数原型:createbackgroundsubtractormog2(默认参数不作介绍)
效果展示:
2、gmg
说明:静态背景图像估计和每个像素的贝叶斯分割抗噪性更强;
函数原型:createbackgroundsubtractorgmg()
效果展示:
总结:gmg开始会不显示一段时间,这是由于初始参考帧的数量和过大;对比业界的效果来看,这些传统方法的效果并不好,特别是对比深度学习的算法;但很多原理值得我们取思考借鉴,模型只是给出我们问题的优解,如果能将传统算法结合深度学习算法,那是否能在提速的同时,也达到一个可观的效果,这是我思考的一个点,欢迎大家发表自己的意见;
六、图像修复
说明:我们的图像往往会有一些马赛克的存在,特别是一些老照片会有不必要的图案,图像修复就是用于解决这类问题,并不等同于超清化;
函数原型:
inpaint(img,mask,inpaintradius,两种方式:inpaint_ns、inpaint_telea)
代码案例:
img = cv2.imread('inpaint.png') mask = cv2.imread('inpaint_mask.png', 0) result = cv2.inpaint(img, mask, 5, cv2.inpaint_telea) cv2.imshow('img', img) cv2.imshow('result', result) cv2.waitkey()
总结:从结果来看,效果相当不错,但前提我们需要知道需要修复的部分,所以应用的场景也会比较局限;
总结
简单介绍了一些传统的一些图像分割算法,并没有涉及原理,感兴趣的可以自行了解;当然,现在业界的分割算法都采用深度学习的方式了,并且也有了很好的效果和落地应用。
以上就是opencv学习之图像的分割与修复详解的详细内容,更多关于opencv图像分割修复的资料请关注其它相关文章!
下一篇: 使用ListView实现网上订餐首页