C++学习贝叶斯分类器实现手写数字识别示例解析
大家好啊!这次的文章是上一个文章的后续,与上一次不同的是,这一次对数字识别采用的是贝叶斯(bayes)分类器。贝叶斯在概率论与数理统计这门课讲过,下面我们简单了解一下:
首先,贝叶斯公式是
具体的解释就不说了,我们说一说把贝叶斯用在数字识别的什么位置。除了识别部分,其他的包括遍历文件夹和图片数字化都不变;0到9共十个数,所以分母有十项,p(bj)(j是下标)相应的是0到9,则每一个的概率是1/10,分子上的p(bi)是取到0到9中的一个,所以概率也是1/10。
(小伙伴如果看不明白建议去看看贝叶斯)所以我们分母可以提出来并约分,然后式子pi/(p1+p2+p3+p4+p5+p6+p7+p8+p9)(pi就是p(a|bi),其他的就是i分别取值),变成这样后,i取0——9的某个数就是测试样本是这个数的概率,比如:i=0,表示测试用例是0的概率为p1/(p1+p2+p3+p4+p5+p6+p7+p8+p9+p10)(1就是对应数字0)。
那么我们该如何找到pin呢,我们是通过统计样本每一位为1的概率,这样说可能不太清楚,也就是假如一张0的图片的数据化字符串为0000000000100000111000010010001010000111000000000(49位),我们一位一位的去统计每一位为1的个数(如下图,也就是纵向的统计每个样本的第某位为1的个数),最后除以总数,我的训练库一个数字的样本有100张,假如我们统计到数字0的所有样本的第一位数字为1的个数为46个,那么数字0的第一位为1的概率为0.46,其他位也是依次统计,其他数字同上。
最终我们可以统计到每个数字的每一位为1的概率形成一个10*49的二维数组,即10个数字,每个数字49位。然后我们取一个测试用例,依次与10个数字进行计算概率,最后得到的概率比较大小,那么我们如何去计算测试用例是某个数字的概率呢?下面我们把49位简单的看成3位,假如数字0的第一、二、三位为1的概率是0.56、0.05、0.41,而测试用例的数据字符串为101,那么我们取为1的概率直接乘,为0的用1减去这个概率,再乘起来,也就是0.56*0.95*0.41。到这里就差不多使我们的所有思路了。
其他的思路解释看上次的文章,链接 c++编程模板匹配超详细的识别手写数字实现示例
下面是我的代码,首先opencv得自己安装,这里我给一个链接,可以参照上的步骤来
另外,我的bayes这个函数太长了,应该分成几个函数的,这样会更好调试和阅读
详细的代码解释都在注释里,仔细的看看理解就好了,如果有更好的方法和思路,欢迎交流学习!
#include<iostream> #include<fstream> #include<opencv2/opencv.hpp> #include<opencv2/highgui.hpp> #include<opencv2/core.hpp> #include<io.h> //api和结构体 #include<string.h> #include<string> #include<sstream> //string 转 int 数据类型包含 using namespace std; using namespace cv; void ergodictest(string filename, string name); //遍历函数 string image_compression(string imgpath); //压缩图片并返回字符串 void bayes(); //贝叶斯分类器 int turn(char a); void main() { const char* filepath = "e:\\learn\\vsfile\\c++project\\picturedata\\train-images"; ergodictest(filepath, "train_num.txt"); //处理训练集 const char* test_path = "e:\\learn\\vsfile\\c++project\\picturedata\\test-images"; ergodictest(test_path, "test_num.txt"); bayes(); } void ergodictest(string filename, string name) //遍历并把路径存到files { string firstfilename = filename + "\\*.bmp"; struct _finddata_t fileinfo; intptr_t handle; //不能用long,因为精度问题会导致访问冲突,longlong也可 string rout = "e:\\learn\\vsfile\\c++project\\picturedata\\" + name; ofstream file; file.open(rout, ios::out); handle = _findfirst(firstfilename.c_str(), &fileinfo); if (_findfirst(firstfilename.c_str(), &fileinfo) != -1) { do { file << fileinfo.name<<":"<< image_compression(filename + "\\" + fileinfo.name) << endl; } while (!_findnext(handle, &fileinfo)); file.close(); _findclose(handle); } } string image_compression(string imgpath) //输入图片地址返回图片二值像素字符 { mat image = imread(imgpath); //输入的图片 cvtcolor(image, image, color_bgr2gray); int matrix[28][28]; //将digitization转化为字符串类型 for (int row = 0; row < image.rows; row++) //把图片的像素点传给数组 for (int col = 0; col < image.cols; col++) { matrix[row][col] = image.at<uchar>(row, col); } string img_str = ""; //用来存储结果字符串 int x = 0, y = 0; for (int k = 1; k < 50; k++) { int total = 0; for (int q = 0; q < 4; q++) for (int p = 0; p < 4; p++) if (matrix[x + q][y + p] > 127) total += 1; y = (y + 4) % 28; if (total >= 6) img_str += '1'; //将28*28的图片转化为7*7即压缩 else img_str += '0'; if (k % 7 == 0) { x += 4; y = 0; } } return img_str; } int turn(char a) //这个函数是把string类型转换成int类型 { stringstream str; int f = 1; str << a; str >> f; str.clear(); return f; } void bayes() { ifstream data_test, data_train; //从两个数据字符串文件中取数据的文件流 string temp; //中间暂存字符串的变量 double count[10] = { 0 }; //用来计数每个数字样本1个数 double probability[10][49] = { 0 }; int t = 0; //避免算数溢出 for (int i = 0; i < 49; i++) //按列处理训练样本(每一个样本数据长度位49位) { data_train.open("e:\\learn\\vsfile\\c++project\\picturedata\\train_num.txt"); for (int j = 0; j < 1000; j++) //按顺序取一千次数据 { getline(data_train, temp); //顺序取每一行数据 if (temp.length() == 57) //本来长度是49,因为我有文件名所以要跳过文件名 { t = i + 8; //用t来代替i+8是因为string的[]中没有+-重载,好像是这样 if (turn(temp[t]) == 1) count[turn(temp[0])]++; //相应数字为1计数加1 else continue; } else if(temp.length() == 58) { t = i + 9; //有的文件名为8位有的为9位 if (turn(temp[t]) == 1) count[turn(temp[0])]++; //相应数字 else continue; } } data_train.close(); //一定要注意文件流打开和关闭的时机,打开和关闭一次之间是一次完整的遍历(getline) for (int q = 0; q < 10; q++) { probability[q][i] =count[q] / 100.0; //计算每个数字数据样本的每一位1的概率 count[q] = 0;//循环还要使用count,所以要初始化 } } double probab[10] = { 1,1,1,1,1,1,1,1,1,1 }; //该数组是这个数字的概率(10个数字) data_test.open("e:\\learn\\vsfile\\c++project\\picturedata\\test_num.txt"); double temp_prob = 0; //对比可能性的中间变量:概率 int temp_num = -1; //对比可能性的中间变量:数字 bool flag = true; //标志拒绝识别,假就拒绝 int num_r = 0, num_f = 0, num_t = 0; //分别表示拒绝,错误,正确 for (int d = 0; d < 200; d++) //200个测试样本 { for (int o = 0; o < 10; o++) probab[o] = 1;//初始化概率数组,虽然前面有初始化,但是我们循环会多次使用,所以我们要每循环一次初始化一次 getline(data_test, temp); for (int y = 0; y < 10; y++) //分别和每个数字得出一个概率,既该测试用例是这个数字的概率 { for (int s = 0; s < 49; s++) //49位对应去累乘得到概率 { if (temp.length() == 57) { t = s + 8; if (turn(temp[t]) == 1) probab[y] *=1+probability[y][s]; //加1是因为零点几越乘越小,不好比较,而且有的概率可能为0, else probab[y] *= 2 - probability[y][s]; //同样的,为0的概率也要加上1 } else { t = s + 9; if (turn(temp[t]) == 1) probab[y] *=1+probability[y][s]; //相应数字 else probab[y] *= (2 - probability[y][s]); } } } flag = true; //标志置位真 temp_prob = 0; //重置中间变量 temp_num = -1; //开始前不标识为任何数值 for (int l = 0; l < 10; l++) //比较测试用例是某个数字的概率,确定最大的那个 { if (probab[l] > temp_prob) { temp_prob = probab[l]; temp_num = l; flag = true; //不被拒绝 } else if (probab[l] == temp_prob ) { flag = false; //拒绝识别 } } if (!flag) { num_r++; } else { cout << temp[0] << " " << temp_num << endl; if (temp_num == turn(temp[0])) { cout << "识别为:" << temp_num << endl; num_t++; } else { cout << "识别错误!" << endl; num_f++; } } } data_test.close(); cout << "拒绝识别率为:" << num_r / 200.0 << endl; cout << "正确识别率为:" << num_t / 200.0 << endl; cout << "错误识别率为:" << num_f / 200.0 << endl; }
注意,我的代码用的样本图片都是处理好的二值bmp图片,另外代码里的txt文档需要手动建,伙伴们可以自行修改,添加创建文本的语句。
每日一遍:好好学习,天天向上!
以上就是c++学习贝叶斯分类器实现手写数字识别示例解析的详细内容,更多关于实现手写数字识别的资料请关注其它相关文章!
上一篇: 关联规则挖掘——FPTree
推荐阅读
-
C++学习贝叶斯分类器实现手写数字识别示例解析
-
C++编程模板匹配超详细的识别手写数字实现示例
-
经典实战案例:用机器学习 KNN 算法实现手写数字识别 | 原力计划
-
【机器学习】【KNN】线性扫描算法,python实现识别手写数字的系统
-
学习KNN(二)KNN算法手写数字识别的OpenCV实现
-
第一个机器学习算法:K-近邻算法实现手写数字识别系统
-
超详细PyTorch实现手写数字识别器的示例代码
-
【机器学习基础】KNN实现手写数字识别
-
学习笔记TF024:TensorFlow实现Softmax Regression(回归)识别手写数字
-
【Tensorflow与深度学习笔记day07】5.2. ANN网络分析+Mnist手写数字识别+one-hot编码+SoftMax回归+损失计算-交叉熵损失+实现神经网络模型+模型正确率评估