Python实现字符型图片验证码识别完整过程详解
1摘要
验证码是目前互联网上非常常见也是非常重要的一个事物,充当着很多系统的防火墙功能,但是随时ocr技术的发展,验证码暴露出来的安全问题也越来越严峻。本文介绍了一套字符验证码识别的完整流程,对于验证码安全和ocr识别技术都有一定的借鉴意义。
本文的基于传统的机器学习svm的源码共享:
2关键词
关键词:安全,字符图片,验证码识别,ocr,python,svm,pil
3免责声明
本文研究所用素材来自于某旧web框架的网站完全对外公开的公共图片资源。
本文只做了该网站对外公开的公共图片资源进行了爬取,并未越权做任何多余操作。
本文在书写相关报告的时候已经隐去漏洞网站的身份信息。
本文作者已经通知网站相关人员此系统漏洞,并积极向新系统转移。
本报告的主要目的也仅是用于ocr交流学习和引起大家对验证安全的警觉。
4引言
本章内容作为它的技术补充来给出相应的识别的解决方案,让读者对验证码的功能及安全性问题有更深刻的认识。
5基本工具
要达到本文的目的,只需要简单的编程知识即可,因为现在的机器学习领域的蓬勃发展,已经有很多封装好的开源解决方案来进行机器学习。普通程序员已经不需要了解复杂的数学原理,即可以实现对这些工具的应用了。
主要开发环境:
- python3.5
python sdk版本
- pil
图片处理库
- libsvm
开源的svm机器学习库
关于环境的安装,不是本文的重点,故略去。
6基本流程
一般情况下,对于字符型验证码的识别流程如下:
1.准备原始图片素材
2.图片预处理
3.图片字符切割
4.图片尺寸归一化
5.图片字符标记
6.字符图片特征提取
7.生成特征和标记对应的训练数据集
8.训练特征标记数据生成识别模型
9.使用识别模型预测新的未知图片集
10.达到根据“图片”就能返回识别正确的字符集的目标
7素材准备
7.1素材选择
由于本文是以初级的学习研究目的为主,要求“有代表性,但又不会太难”,所以就直接在网上找个比较有代表性的简单的字符型验证码(感觉像在找漏洞一样)。
最后在一个比较旧的网站(估计是几十年前的网站框架)找到了这个验证码图片。
原始图:
放大清晰图:
此图片能满足要求,仔细观察其具有如下特点。
有利识别的特点:
由纯阿拉伯数字组成字数为4位字符排列有规律字体是用的统一字体
以上就是本文所说的此验证码简单的重要原因,后续代码实现中会用到
不利识别的特点:
图片背景有干扰噪点
这虽然是不利特点,但是这个干扰门槛太低,只需要简单的方法就可以除去
7.2素材获取
由于在做训练的时候,需要大量的素材,所以不可能用手工的方式一张张在浏览器中保存,故建议写个自动化下载的程序。
主要步骤如下:
通过浏览器的抓包功能获取随机图片验证码生成接口批量请求接口以获取图片将图片保存到本地磁盘目录中
这些都是一些it基本技能,本文就不再详细展开了。
关于网络请求和文件保存的代码,如下:
def downloads_pic(**kwargs): pic_name = kwargs.get('pic_name', none) url = 'http://xxxx/rand_code_captcha/' res = requests.get(url, stream=true) with open(pic_path + pic_name+'.bmp', 'wb') as f: for chunk in res.iter_content(chunk_size=1024): if chunk: # filter out keep-alive new chunks f.write(chunk) f.flush() f.close()
循环执行n次,即可保存n张验证素材了。
下面是收集的几十张素材库保存到本地文件的效果图:
8图片预处理
虽然目前的机器学习算法已经相当先进了,但是为了减少后面训练时的复杂度,同时增加识别率,很有必要对图片进行预处理,使其对机器识别更友好。
针对以上原始素材的处理步骤如下:
1.读取原始图片素材
2.将彩色图片二值化为黑白图片
3.去除背景噪点
8.1二值化图片
主要步骤如下:
- 将rgb彩图转为灰度图
- 将灰度图按照设定阈值转化为二值图
image = image.open(img_path) imgry = image.convert('l') # 转化为灰度图 table = get_bin_table() out = imgry.point(table, '1')
上面引用到的二值函数的定义如下:
def get_bin_table(threshold=140): """ 获取灰度转二值的映射table :param threshold: :return: """ table = [] for i in range(256): if i < threshold: table.append(0) else: table.append(1) return table
由pil转化后变成二值图片:0表示黑色,1表示白色。二值化后带噪点的6937的像素点输出后如下图:
1110111011110111011111011110111100110111
1101111111110110101111110101111111101111
1100111011111000001111111001011111011111
1101111011111111101111011110111111011111
1110000111111000011101100001110111011111
如果你是近视眼,然后离屏幕远一点,可以隐约看到6937的骨架了。
8.2去除噪点
在转化为二值图片后,就需要清除噪点。本文选择的素材比较简单,大部分噪点也是最简单的那种孤立点,所以可以通过检测这些孤立点就能移除大量的噪点。
关于如何去除更复杂的噪点甚至干扰线和色块,有比较成熟的算法:洪水填充法 flood fill,后面有兴趣的时间可以继续研究一下。
本文为了问题简单化,干脆就用一种简单的自己想的简单办法来解决掉这个问题:
- 对某个 黑点 周边的九宫格里面的黑色点计数
- 如果黑色点少于2个则证明此点为孤立点,然后得到所有的孤立点
- 对所有孤立点一次批量移除。
下面将详细介绍关于具体的算法原理。
将所有的像素点如下图分成三大类
顶点a非顶点的边界点b内部点c
种类点示意图如下:
其中:
•a类点计算周边相邻的3个点(如上图红框所示)
•b类点计算周边相邻的5个点(如上图红框所示)
•c类点计算周边相邻的8个点(如上图红框所示)
当然,由于基准点在计算区域的方向不同,a类点和b类点还会有细分:
•a类点继续细分为:左上,左下,右上,右下
•b类点继续细分为:上,下,左,右
•c类点不用细分
然后这些细分点将成为后续坐标获取的准则。
主要算法的python实现如下:
def sum_9_region(img, x, y): """ 9邻域框,以当前点为中心的田字框,黑点个数 :param x: :param y: :return: """ # todo 判断图片的长宽度下限 cur_pixel = img.getpixel((x, y)) # 当前像素点的值 width = img.width height = img.height if cur_pixel == 1: # 如果当前点为白色区域,则不统计邻域值 return 0 if y == 0: # 第一行 if x == 0: # 左上顶点,4邻域 # 中心点旁边3个点 sum = cur_pixel \ + img.getpixel((x, y + 1)) \ + img.getpixel((x + 1, y)) \ + img.getpixel((x + 1, y + 1)) return 4 - sum elif x == width - 1: # 右上顶点 sum = cur_pixel \ + img.getpixel((x, y + 1)) \ + img.getpixel((x - 1, y)) \ + img.getpixel((x - 1, y + 1)) return 4 - sum else: # 最上非顶点,6邻域 sum = img.getpixel((x - 1, y)) \ + img.getpixel((x - 1, y + 1)) \ + cur_pixel \ + img.getpixel((x, y + 1)) \ + img.getpixel((x + 1, y)) \ + img.getpixel((x + 1, y + 1)) return 6 - sum elif y == height - 1: # 最下面一行 if x == 0: # 左下顶点 # 中心点旁边3个点 sum = cur_pixel \ + img.getpixel((x + 1, y)) \ + img.getpixel((x + 1, y - 1)) \ + img.getpixel((x, y - 1)) return 4 - sum elif x == width - 1: # 右下顶点 sum = cur_pixel \ + img.getpixel((x, y - 1)) \ + img.getpixel((x - 1, y)) \ + img.getpixel((x - 1, y - 1)) return 4 - sum else: # 最下非顶点,6邻域 sum = cur_pixel \ + img.getpixel((x - 1, y)) \ + img.getpixel((x + 1, y)) \ + img.getpixel((x, y - 1)) \ + img.getpixel((x - 1, y - 1)) \ + img.getpixel((x + 1, y - 1)) return 6 - sum else: # y不在边界 if x == 0: # 左边非顶点 sum = img.getpixel((x, y - 1)) \ + cur_pixel \ + img.getpixel((x, y + 1)) \ + img.getpixel((x + 1, y - 1)) \ + img.getpixel((x + 1, y)) \ + img.getpixel((x + 1, y + 1)) return 6 - sum elif x == width - 1: # 右边非顶点 # print('%s,%s' % (x, y)) sum = img.getpixel((x, y - 1)) \ + cur_pixel \ + img.getpixel((x, y + 1)) \ + img.getpixel((x - 1, y - 1)) \ + img.getpixel((x - 1, y)) \ + img.getpixel((x - 1, y + 1)) return 6 - sum else: # 具备9领域条件的 sum = img.getpixel((x - 1, y - 1)) \ + img.getpixel((x - 1, y)) \ + img.getpixel((x - 1, y + 1)) \ + img.getpixel((x, y - 1)) \ + cur_pixel \ + img.getpixel((x, y + 1)) \ + img.getpixel((x + 1, y - 1)) \ + img.getpixel((x + 1, y)) \ + img.getpixel((x + 1, y + 1)) return 9 - sum
tips:这个地方是相当考验人的细心和耐心程度了,这个地方的工作量还是蛮大的,花了半个晚上的时间才完成的。
计算好每个像素点的周边像素黑点(注意:pil转化的图片黑点的值为0)个数后,只需要筛选出个数为1或者2的点的坐标即为孤立点。这个判断方法可能不太准确,但是基本上能够满足本文的需求了。
经过预处理后的图片如下所示:
对比文章开头的原始图片,那些孤立点都被移除掉,相对比较干净的验证码图片已经生成。
9图片字符切割
由于字符型验证码图片本质就可以看着是由一系列的单个字符图片拼接而成,为了简化研究对象,我们也可以将这些图片分解到原子级,即:只包含单个字符的图片。
于是,我们的研究对象由“n种字串的组合对象”变成“10种阿拉伯数字”的处理,极大的简化和减少了处理对象。
9.1分割算法
现实生活中的字符验证码的产生千奇百怪,有各种扭曲和变形。关于字符分割的算法,也没有很通用的方式。这个算法也是需要开发人员仔细研究所要识别的字符图片的特点来制定的。
当然,本文所选的研究对象尽量简化了这个步骤的难度,下文将慢慢进行介绍。
使用图像编辑软件(phoneshop或者其它)打开验证码图片,放大到像素级别,观察其它一些参数特点:
可以得到如下参数:
•整个图片尺寸是 40*10
•单个字符尺寸是 6*10
•左右字符和左右边缘相距2个像素
•字符上下紧挨边缘(即相距0个像素)
这样就可以很容易就定位到每个字符在整个图片中占据的像素区域,然后就可以进行分割了,具体代码如下:
def get_crop_imgs(img): """ 按照图片的特点,进行切割,这个要根据具体的验证码来进行工作. # 见原理图 :param img: :return: """ child_img_list = [] for i in range(4): x = 2 + i * (6 + 4) # 见原理图 y = 0 child_img = img.crop((x, y, x + 6, y + 10)) child_img_list.append(child_img) return child_img_list
然后就能得到被切割的原子级的图片元素了:
9.2内容小结
基于本部分的内容的讨论,相信大家已经了解到了,如果验证码的干扰(扭曲,噪点,干扰色块,干扰线……)做得不够强的话,可以得到如下两个结论:
4位字符和40000位字符的验证码区别不大
纯数字和数字及字母组合的验证码区别不大
- 纯数字。分类数为10
- 纯字母
- 不区分大小写。分类数为26
- 区分大小写。分类数为52
- 数字和区分大小写的字母组合。分类数为62
在没有形成指数级或者几何级的难度增加,而只是线性有限级增加计算量时,意义不太大。
10尺寸归一
本文所选择的研究对象本身尺寸就是统一状态:6*10的规格,所以此部分不需要额外处理。但是一些进行了扭曲和缩放的验证码,则此部分也会是一个图像处理的难点。
11模型训练步骤
在前面的环节,已经完成了对单个图片的处理和分割了。后面就开始进行识别模型的训练了。
整个训练过程如下:
1.大量完成预处理并切割到原子级的图片素材准备
2.对素材图片进行人为分类,即:打标签
3.定义单张图片的识别特征
4.使用svm训练模型对打了标签的特征文件进行训练,得到模型文件
12素材准备
本文在训练阶段重新下载了同一模式的4数字的验证图片总计:3000张。然后对这3000张图片进行处理和切割,得到12000张原子级图片。
在这12000张图片中删除一些会影响训练和识别的强干扰的干扰素材,切割后的效果图如下:
13素材标记
由于本文使用的这种识别方法中,机器在最开始是不具备任何 数字的观念的。所以需要人为的对素材进行标识,告诉机器什么样的图片的内容是 1……。
这个过程叫做“标记”。
具体打标签的方法是:
为0~9每个数字建立一个目录,目录名称为相应数字(相当于标签)
人为判定图片内容,并将图片拖到指定数字目录中
每个目录中存放100张左右的素材
一般情况下,标记的素材越多,那么训练出的模型的分辨能力和预测能力越强。例如本文中,标记素材为十多张的时候,对新的测试图片识别率基本为零,但是到达100张时,则可以达到近乎100%的识别率
14特征选择
对于切割后的单个字符图片,像素级放大图如下:
从宏观上看,不同的数字图片的本质就是将黑色按照一定规则填充在相应的像素点上,所以这些特征都是最后围绕像素点进行。
字符图片宽6个像素,高10个像素,理论上可以最简单粗暴地可以定义出60个特征:60个像素点上面的像素值。但是显然这样高维度必然会造成过大的计算量,可以适当的降维。
通过查阅相应的文献[2],给出另外一种简单粗暴的特征定义:
- 每行上黑色像素的个数,可以得到10个特征
- 每列上黑色像素的个数,可以得到6个特征
最后得到16维的一组特征,实现代码如下:
def get_feature(img): """ 获取指定图片的特征值, 1. 按照每排的像素点,高度为10,则有10个维度,然后为6列,总共16个维度 :param img_path: :return:一个维度为10(高度)的列表 """ width, height = img.size pixel_cnt_list = [] height = 10 for y in range(height): pix_cnt_x = 0 for x in range(width): if img.getpixel((x, y)) == 0: # 黑色点 pix_cnt_x += 1 pixel_cnt_list.append(pix_cnt_x) for x in range(width): pix_cnt_y = 0 for y in range(height): if img.getpixel((x, y)) == 0: # 黑色点 pix_cnt_y += 1 pixel_cnt_list.append(pix_cnt_y) return pixel_cnt_list
然后就将图片素材特征化,按照libsvm指定的格式生成一组带特征值和标记值的向量文件。内容示例如下:
说明如下:
1.第一列是标签列,即此图片人为标记值,后续还有其它数值1~9的标记
2.后面是16组特征值,冒号前面是索引号,后面是值
3.如果有1000张训练图片,那么会产生1000行的记录
对此文件格式有兴趣的同学,可以到libsvm官网搜索更多的资料。
15模型训练
到这个阶段后,由于本文直接使用的是开源的libsvm方案,属于应用了,所以此处内容就比较简单的。只需要输入特征文件,然后输出模型文件即可。
可以搜索到很多相关中文资料[1]。
主要代码如下:
def train_svm_model(): """ 训练并生成model文件 :return: """ y, x = svm_read_problem(svm_root + '/train_pix_feature_xy.txt') model = svm_train(y, x) svm_save_model(model_path, model)
备注:生成的模型文件名称为svm_model_file
16模型测试
训练生成模型后,需要使用训练集之外的全新的标记后的图片作为测试集来对模型进行测试。
本文中的测试实验如下:
- 使用一组全部标记为8的21张图片来进行模型测试
- 测试图片生成带标记的特征文件名称为last_test_pix_xy_new.txt
在早期训练集样本只有每字符十几张图的时候,虽然对训练集样本有很好的区分度,但是对于新样本测试集基本没区分能力,识别基本是错误的。逐渐增加标记为8的训练集的样本后情况有了比较好的改观:
- 到60张左右的时候,正确率大概80%
- 到185张的时候,正确率基本上达到100%
以数字8的这种模型强化方法,继续强化对数字0~9中的其它数字的模型训练,最后可以达到对所有的数字的图片的识别率达到近乎 100%。在本文示例中基本上每个数字的训练集在100张左右时,就可以达到100%的识别率了。
模型测试代码如下:
def svm_model_test(): """ 使用测试集测试模型 :return: """ yt, xt = svm_read_problem(svm_root + '/last_test_pix_xy_new.txt') model = svm_load_model(model_path) p_label, p_acc, p_val = svm_predict(yt, xt, model)#p_label即为识别的结果 cnt = 0 for item in p_label: print('%d' % item, end=',') cnt += 1 if cnt % 8 == 0: print('')
至此,验证的识别工作算是完满结束。
17完整识别流程
在前面的环节,验证码识别的相关工具集都准备好了。然后对指定的网络上的动态验证码形成持续不断地识别,还需要另外写一点代码来组织这个流程,以形成稳定的黑盒的验证码识别接口。
主要步骤如下:
1.传入一组验证码图片
2.对图片进行预处理:去噪,二值等等
3.切割成4张有序的单字符图片
4.使用模型文件分别对4张图片进行识别
5.将识别结果拼接
6.返回识别结果
然后本文中,请求某网络验证码的http接口,获得验证码图片,识别出结果,以此结果作为名称保存此验证图片。效果如下:
显然,已经达到几乎100%的识别率了。
在本算法没有做任何优化的情况下,在目前主流配置的pc机上运行此程序,可以实现200ms识别一个(很大的耗时来自网络请求的阻塞)。
18效率优化
后期通过优化的方式可以达到更好的效率。
软件层次优化
1.将图片资源的网络请求部分做成异步非阻塞模式
2.利用好多核cpu,多进程并行运行
3.在图片特征上认真挑选和实验,降低维度
预计可以达到1s识别10到100个验证码的样子。
硬件层次优化
1.粗暴地增加cpu性能
2.粗暴地增加运行机器
基本上,10台4核心机器同时请求,保守估计效率可以提升到1s识别1万个验证码。
19互联网安全警示
如果验证码被识别出来后,会有什么安全隐患呢?
在大家通过上一小节对识别效率有了认识之后,再提到这样的场景,大家会有新的看法了吧:
12306火车售票网,春节期间早上8:00某车次放出的500张票,1s内全部被抢光,最后发现正常需求的人抢不到票,但是黄牛却大大的有票某某手机网站,早上10:00开启抢购活动,守候了许久的无数的你都铩羽而归,但是同样黄牛却大量有货
暂先不管后面有没有手续上的黑幕,在一切手续合法的情况下,只要通过技术手段识别掉了验证码,再通过计算机强大的计算力和自动化能力,将大量资源抢到少数黄牛手中在技术是完全可行的。
所以今后大家抢不到票不爽的时候,可以继续骂12306,但是不要骂它有黑幕了,而是骂他们it技术不精吧。
关于一个验证码失效,即相当于没有验证码的系统,再没有其它风控策略的情况下,那么这个系统对于代码程序来就就完全如入无人之境。
目前确实有一些web应用系统连验证码都没有,只能任人宰割即使web应用系统有验证码但是难度不够,也只能任人宰割
所以,这一块虽然小,但是安全问题不能忽视。
20积极应用场景
本文介绍的其实是一项简单的ocr技术实现。有一些很好同时也很有积极进步意义的应用场景:
•银行卡号识别
•身份证号识别
•车牌号码识别
这些场景有具有和本文所研究素材很相似的特点:
1.字体单一
2.字符为简单的数字或字母组合
3.文字的排列是标准化统一化的
所以如果拍照时原始数据采集比较规范的情况下,识别起来应该难度也不大。
21小结
本文只是选取了一个比较典型的而且比较简单的验证码的识别作为示例,但是基本上能表述出一个识别此类验证码的完整流程,可以供大家交流学习。
由于目前全球的it技术实力参差不齐,现在很多旧的it系统里面都存在一些旧的页面框架,里面使用的验证码也是相当古老,对于当下的一些识别技术来说,完全不堪一击。比如,我看到一些在校大学生就直接拿自己学校的教务系统的验证码来开刀练习的。
最后,本文特意提出如下倡议:
对于掌握ocr技术的人
•不要做违法的事,因为目前被抓的“白帽子”的新闻也蛮多的
•在不违法的情况下,还是可以向存在漏洞的系统管理员提出善意提醒
•以自己的专业知识,多做一些促进社会进步,提升社会生产力的事情,如纸书电子化等等
对于仍然沿用旧的落后的it系统的公司或者机构相关人员
应该尽快认识到事情的严重性,赶紧升级自己的系统,或者将这一块业务交付给专门的安全公司