opencv图像矩阵掩模
如上图所示,红色是中心像素,从上到下,从左到右对每个像素做同样的处理操作(上图的公式),得到最终结果就是对比度提高之后的输出图像Mat对象。
Mat图像在opencv中的存储形式一般是二维向量(可以理解为二维数组),即从(0,0)到(rows-1,cols-1)。
例如:RGB三通道彩色图的存储形式如下图:
例如:单通道灰度图的存储形式如下图:
那么我们在对像素点(row,col)进行掩模时需要注意,有些像素点不满足条件(二维向量图四边上的点,例如:(0,0),(0,1),(1,0)等)。
为了实现掩模操作,介绍几个函数:
1.获取图像像素指针
Mat.ptr<uchar>(int i=0) 获取像素矩阵的指针,索引i表示第几行,从0开始计行数。
获得当前行指针const uchar* current= myImage.ptr<uchar>(row );
获取当前像素点P(row, col)的像素值 p(row, col) =current[col]
2.像素范围处理saturate_cast<uchar>
这个函数的功能是确保RGB值得范围在0~255之间
saturate_cast<uchar>(-100),返回 0
saturate_cast<uchar>(288),返回255
saturate_cast<uchar>(100),返回100
3.filter2D
我们可以通过opencv提供的函数定义掩膜,然后借助filter2D实现掩模
Mat kernel = (Mat_<char>(3,3) << 0, -1, 0, -1, 5, -1, 0, -1, 0);
filter2D( src, dst, src.depth(), kernel );
其中src与dst是Mat类型变量、src.depth表示位图深度,有32、24、8等。
首先,我们用第一种方法实现,不借助filter2D,代码如下:
#include <opencv2/opencv.hpp>
#include <opencv2/highgui.hpp>
#include <iostream>
using namespace cv;
int main()
{
Mat img,dst;
img=imread("C:/Users/Administrator/Pictures/jjskll.jpg");
if(!img.data)
{
printf("read img failed...\n");
return -1;
}
//namedWindow("displayImge",CV_WINDOW_AUTOSIZE); //创建一个新窗口
imshow("inputImge",img);
//每一列必须乘以通道数,因为有可能为彩色图像,列为灰度的三倍
//由于最外围的一圈像素点没办法进行图像掩模(因为我们算的是模板中心点的值,
//模板放在最边缘也算不出最外圈的掩模值)
int cols = (img.cols-1)*img.channels();
int offsetx = img.channels();
int rows = img.rows;
dst = Mat::zeros(img.size(),img.type());
//row从1开始一直取到rows-2结束,表示不要对最外围的像素点掩模
for (int row = 1; row < rows-1; row++)
{
//通过像素指针,拿到行指针
const uchar* previous = img.ptr<uchar>(row-1);
const uchar* current = img.ptr<uchar>(row);
const uchar* next = img.ptr<uchar>(row+1);
uchar* output = dst.ptr<uchar>(row);
//col从3开始(第4列),因为彩色图像会有三个通道,最外围的像素点不掩模
//每个像素有BGR三个通道
//分别对每个像素的BGR都要分别进行掩模操作
for (int col = offsetx; col < cols; col++)
{
output[col] = saturate_cast<uchar>(5* current[col] - (current[col-offsetx] + current[col+offsetx] + previous[col] + next[col]));
}
}
namedWindow("contrast image demo",CV_WINDOW_AUTOSIZE);
imshow("contrast image demo",dst);
waitKey(0);
return 0;
}
原图如下:
掩模后的效果如下:
上面是我们自己通过掩模的定义来实现的,接下来我们借助filter2D来实现
#include <opencv2/opencv.hpp>
#include <opencv2/highgui.hpp>
#include <iostream>
using namespace cv;
int main()
{
Mat img,dst;
img=imread("C:/Users/Administrator/Pictures/jjskll.jpg");
if(!img.data)
{
printf("read img failed...\n");
return -1;
}
//namedWindow("displayImge",CV_WINDOW_AUTOSIZE); //创建一个新窗口
imshow("inputImge",img);
double t = getTickCount();
Mat kernel = (Mat_<char>(3, 3) << 0, -1, 0, -1, 5, -1, 0, -1, 0);
filter2D(img, dst, img.depth(), kernel);
double timeconsume = (getTickCount() - t) / getTickFrequency();
printf("time consume %.2f", timeconsume);
namedWindow("contrast image demo",CV_WINDOW_AUTOSIZE);
imshow("contrast image demo",dst);
waitKey(0);
return 0;
}
运行效果和上面的完全一样,唯一的区别就是会输出运行时间
上一篇: PHP函数rtrim()使用中的怪异现象