在这篇文章中,我们将会通过使用之前学习过的OpenCV的知识,比如:高斯模糊,灰度操作,边缘检测,二值化操作等。如果之前没有接触过,可以通过之前专栏的文章了解。
因为最近要做关于OCR识别的任务,有一个内容是关于卡片类的卡号格式化识别,了解后发现我们国内现在目前用的卡类标准为ISO/IEC7810:2003的ID-1标准,卡片尺寸是85.60mm*53.98mm,通过计算长宽比可以得到为0.623.
先思考一下我们的大致思路:
因为我们最终是要完成卡面信息的识别,我们可以分为两个关键流程:
输入->文本检测->文本识别->输出
我们会使用传统的滤波方式完成文本检测,当然现在使用的更多的像是yolo,ctpn检测这样的深度学习的方法。但是在卡片类这种较为固定的格式,个人认为不如使用滤波类效率高,况且滤波类的效果也不差。
大体思路如上,现在具体到代码实现部分:
①:判断长宽比:
首先读取输入图片的尺寸(H,W)
如果在,直接接下来正常进行。
如果不在,那我们可以认为输入的图片尺寸过大或过小,会存在一些背景信息,这时候就需要去除背景,只留下卡面主体。跳转到removeBackground()函数:
第一步:无论是否有背景,先将图片进行尺寸reshape(550,350),方便以后操作:
测试图片:
因为采取了最近邻插值来reshape,这也会让像素的一些颜色发生变化:
尺寸如下:
接下来需要进行:
灰度->中值滤波->Sobel边缘检测->二值处理->去除多余部分的背景
在完成sobel检测以后,我们输出一下结果,可以发现已经比较清晰的看起给出卡片的轮廓。
接下来自适应二值化,检测轮廓部分,轮廓之间有一片连通区域,我们要让系统认为这是我们要检测的卡面部分。
得到二值图后,我们需要把连通部分摘取出来,这里用的boundingRect:
得到去除背景后的图片:
现在我们获取到较为完整的卡面后,可以去识别卡片上的号码了,首先要找到号码的位置:
操作与上边去除背景的时候基本类似,只不过会多一个浮雕化处理(embossment):
这里简单的说一下浮雕化处理:
根据像素与周围像素的差值确定像素值,差别较大的像素(边缘点通常像素差别较大)像素值较大,
在灰度图中表现为较亮,边缘凸显,形成浮雕状,然后加上一个灰度偏移值,作为图片的整体底色。
实现公式:newP = gray0-gray1 150
经过浮雕化处理后,显示一下:
我们可以比较清晰的看见图片中卡号等信息,这时候需要二值化处理,对图像的黑色部分进行竖直投影,图像水平方向的黑色像素进行统计,
除了顶部位置印有银行名称部分,剩下黑色像素少的区 域就是所要找的银行卡卡号区域。验证结果查看其他测试图发现都是如此。
根据经验来看,剩下黑色像素少的区域就是所要找的银行卡卡号区域。
输出函数结果,发现可以很精准的裁到卡号所在的位置:
但是这结果长度还是有些长,图片越紧凑,识别的精度越高,速度也会越快,为了方便以后的操作,我们再将这个结果进行处理一下:使用的操作与上述类似,只不过调整了一些尺寸
就这样,我们完成了银行卡号码的定位检测,学以致用,多多实践。
接下来我们将继续拓展,使用现在实现的结果去识别出数字。