作者简介
CW,广东深圳人,毕业于中山大学(SYSU)数据科学与计算机学院,毕业后就业于腾讯计算机系统有限公司技术工程与事业群(TEG)从事Devops工作,期间在AI LAB实习过,实操过道路交通元素与医疗病例图像分割、视频实时人脸检测与表情识别、OCR等项目。
目前也有在一些自媒体平台上参与外包项目的研发工作,项目专注于CV领域(传统图像处理与深度学习方向均有)。
前言
EAST: An Efficient and Accurate Scene Text Detector 是用于场景文字识别(OCR)的算法,五一假期 CW 把这套算法的源码研读了一番,并基于 Pytorch 进行了复现,如今打算把这期间的学习过程记录下来,本文将对数据处理与标签生成部分的源码进行解析,其它部分会在后面的文章中记录。
01 DataSet 类
在pytorch 中通常会封装一个类来处理数据集,这个类继承自 torch.utils.data.DataSet,我们需要重载父类的 _len_ 和 _getitem_ 方法。
处理数据集的类 (i)
处理数据集的类 (ii)
处理数据集的类 (iii)
处理数据集的这个类的整体部分如上,接下来就其中的重要部分进行解读,数据增强的随机缩放和旋转这里就不说了,一起先来看看将图像大小裁剪至512x512这部分。
crop_img:对图像进行随机起始点的裁剪,裁剪至目标大小512x512
若图像的短边小于512,则将其放大到512,同时长边等比例放大。
crop_img(i)
然后对图像中的文本框坐标等比例放大。
crop_img(ii)
接下来就是搜索裁剪方案,搜索的方法是:在图像放大后的尺寸比512x512多出来的空间内进行随机搜索起始点坐标;一个符合要求的裁剪方案是:裁剪得到的图像不能“分割”了图像中的任一文本框。
crop_img(iii)
【注】以上注释讲解中的“裁剪每一中”字样去掉
最后,由于图像在放大后进行了裁剪,因此需要将放大后的文本框顶点坐标进行相应的移动。
crop_img(iv)
下一步,我们来看看具体是如何判断裁剪方案是否符合要求的。
02 is_cross_text:判断裁剪有无“割裂”图像中的任意文本框
is_cross_text(i)
生成裁剪后图像的多边形区域以及文本框的多边形区域,计算两者的重叠区域面积。
is_cross_text(ii)
计算重叠区域面积占文本框面积的比例,理想情况下是1,因为我们要求文本框完全处于裁剪后图像的内部。注意,只要图像中有任意一个文本框不完全处于裁剪后的图像内部,则该裁剪方案不符合要求!
is_cross_text(iii)
03 get_score_geo: 生成 ground truth
这部分是核心部分,会生成3个map,分别是score map、geo map 以及 ignore map,他们各自的意义已在前面部分解释。
get_score_geo(i)
以下这部分的处理十分有“艺术”!
首先明确下,这里制作gt生成的map是在下采样率为1/4的特征图上的,map中的每一点有两种情况:在文本框内和在文本框外,于是我们要对在文本框内的这些点赋予文本框对应的属性(score为1,d 和 angle)。
但是,在这里,作者将我们需要赋值的文本框内点的区域缩小了(将文本框4个顶点向内部移动一定距离,得到一个比文本框面积小的区域),这么做的原因可能是因为这个map的尺寸是比输入图像小的,如果和原文本框区域一致,那么放大回去,有可能会引入文本框边界以外的点,会引入假正例。
另外,需要注意的是,这里只是将需要赋值的文本框内的区域缩小,但文本框的坐标本身是没有改变的!
get_score_geo(ii)
以上还有个处理技巧,就是将文本框旋转到和水平轴夹角为0的情况(即将斜的框旋转为正的),这样对d的计算更加方便。
接下来对旋转后图像每点(包括在文本框外的)都计算d,d若大于文本框边长也代表在文本框外,但是由于我们有mask,因此这部分也会被置0。
注意,geo那里使用的是' =',是因为图像中可能有多个文本框,而这里我们计算的是一个文本框。
get_score_geo(iii)
在处理每一个文本框的过程中,记录了特征图中哪些位置该忽略(即不属于文本框内部),哪些位置该赋值(即处于文本框内部),最后就是将 ignore map 和 score map 分别用这些多边形填充。
get_score_geo(iv)
下一部分,会对以上谈到的那个“艺术”部分进行解读,看具体是如何将文本框顶点进行内缩的。
04 shrink_poly:将文本框顶点向内移动,使得文本框区域变小
首先是计算出文本框每个顶点的短边长度,计算边长就是计算顶点之间的距离。
shrink_poly(i)
然后判断下文本框两对对边哪一对的长度和更长,先移动长的那一对边(2条边,4个顶点)。
shrink_poly(ii)
注意,以上move_points 代表移动一条边,即2个顶点,返回的是移动后顶点的坐标(包括未移动的),接下来看看具体是如何移动顶点的。
05 move_points:将顶点向文本框内部移动
move_points(i)
以下是这部分重点。对于一条边上的这两个顶点,分别计算它们各自短边0.3倍边长相对于它们组成的这条边的比例,然后它们的横纵坐标分别按其对应的这个比例进行移动,两者移动的方向相反,从而使得两个顶点会相互靠近。
move_points(ii)
需要注意一点,若这两个顶点本身距离不超过1,那就不必移动了,因为这说明两者还未相隔超过1个pixel。
06 find_min_rect_angle: 寻找文本框的最小外接矩形,获得对应的旋转角度
我们知道,场景文字的方向并不都是水平的,因此文本框与水平轴是有一定角度的,那么如何知道这个角度是多少呢?
此处是通过枚举的方式,对于在 [
] 范围内的每个角度,都将文本框进行对应的旋转,旋转后记录对应的外接矩形面积,文本框和前10个面积最小的外接矩形的拟合误差,最终选取误差最小的那个方案对应的旋转角。
find_min_rect_angle(i)
find_min_rect_angle(ii)
为了方便理解,CW 特意画了个图(虽然很丑哈哈哈):
文本框旋转,与外接矩形的拟合误差
如上图,v1、v2、v3、v4是文本框4个顶点,文本框与水平轴的真实夹角是
,假设我们在枚举过程中遇到一角度
,然后将文本框进行对应旋转,旋转后的外接矩形就是上图右上部分的ABCD,阴影部分就是外接矩形比文本框多出来的面积。
我们可以认为,这个面积越小则外接矩形与文本框越相近,误差也越小,因此我们选取面积最小的前10个外接矩形道理就在于此。
理想情况下,我们找到了真实的角度
,这时候旋转文本框,得到的外接矩形就会和文本框重合(当然,文本框不是直角矩形而是其它多边形形状时,不会重合),如上图中间部分,这时候外接矩形的面积最小,拟合误差最小。
07 cal_error:计算文本框与外接矩形的拟合误差
由上一部分我们知道,拟合误差与外接矩形面积有正相关关系,现在就来看看这个误差值具体是通过什么来计算的。
上图代码应该交代的很明白了,拟合误差实质就是文本框与外接矩形4个顶点之间对应距离之和。
08 rotate_all_pixels:旋转图像中的所有点
最后来看看图像中的点是如何旋转的。
以上的rotate_mat是旋转操作对应的仿射变换矩阵,根据旋转角即可计算获得:
09 结语
数据预处理与标签生成的源码解析就到此为止了,CW通过代码了解到,这里面还是有不少trick的,从而感受到作者在其中加入了很多对生活实际情况的思考。由此可知,作为技术工程师,必须多多观察与思考,在生活中汲取灵感,这样才能真正创造出实用有效的东西