前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >EAST算法超详细源码解析:数据预处理与标签生成

EAST算法超详细源码解析:数据预处理与标签生成

原创
作者头像
深蓝学院
修改2020-12-09 17:45:06
2K0
修改2020-12-09 17:45:06
举报
文章被收录于专栏:深蓝学院的专栏

作者简介

CW,广东深圳人,毕业于中山大学(SYSU)数据科学与计算机学院,毕业后就业于腾讯计算机系统有限公司技术工程与事业群(TEG)从事Devops工作,期间在AI LAB实习过,实操过道路交通元素与医疗病例图像分割、视频实时人脸检测与表情识别、OCR等项目。

目前也有在一些自媒体平台上参与外包项目的研发工作,项目专注于CV领域(传统图像处理与深度学习方向均有)。

前言

EAST: An Efficient and Accurate Scene Text Detector 是用于场景文字识别(OCR)的算法,五一假期 CW 把这套算法的源码研读了一番,并基于 Pytorch 进行了复现,如今打算把这期间的学习过程记录下来,本文将对数据处理与标签生成部分的源码进行解析,其它部分会在后面的文章中记录。

01 DataSet 类

在pytorch 中通常会封装一个类来处理数据集,这个类继承自 torch.utils.data.DataSet,我们需要重载父类的 _len__getitem_ 方法。

处理数据集的类 (i)

处理数据集的类 (ii)

处理数据集的类 (iii)

处理数据集的这个类的整体部分如上,接下来就其中的重要部分进行解读,数据增强的随机缩放和旋转这里就不说了,一起先来看看将图像大小裁剪至512x512这部分。

crop_img:对图像进行随机起始点的裁剪,裁剪至目标大小512x512

若图像的短边小于512,则将其放大到512,同时长边等比例放大。

crop_img(i)

然后对图像中的文本框坐标等比例放大。

crop_img(ii)

接下来就是搜索裁剪方案,搜索的方法是:在图像放大后的尺寸比512x512多出来的空间内进行随机搜索起始点坐标;一个符合要求的裁剪方案是:裁剪得到的图像不能“分割”了图像中的任一文本框

crop_img(iii)

【注】以上注释讲解中的“裁剪每一中”字样去掉

最后,由于图像在放大后进行了裁剪,因此需要将放大后的文本框顶点坐标进行相应的移动。

crop_img(iv)

下一步,我们来看看具体是如何判断裁剪方案是否符合要求的。

02 is_cross_text:判断裁剪有无“割裂”图像中的任意文本框

is_cross_text(i)

生成裁剪后图像的多边形区域以及文本框的多边形区域,计算两者的重叠区域面积。

is_cross_text(ii)

计算重叠区域面积占文本框面积的比例,理想情况下是1,因为我们要求文本框完全处于裁剪后图像的内部。注意,只要图像中有任意一个文本框不完全处于裁剪后的图像内部,则该裁剪方案不符合要求!

is_cross_text(iii)

03 get_score_geo: 生成 ground truth

这部分是核心部分,会生成3个map,分别是score map、geo map 以及 ignore map,他们各自的意义已在前面部分解释。

get_score_geo(i)

以下这部分的处理十分有“艺术”!

首先明确下,这里制作gt生成的map是在下采样率为1/4的特征图上的,map中的每一点有两种情况:在文本框内和在文本框外,于是我们要对在文本框内的这些点赋予文本框对应的属性(score为1,d 和 angle)。

但是,在这里,作者将我们需要赋值的文本框内点的区域缩小了(将文本框4个顶点向内部移动一定距离,得到一个比文本框面积小的区域),这么做的原因可能是因为这个map的尺寸是比输入图像小的,如果和原文本框区域一致,那么放大回去,有可能会引入文本框边界以外的点,会引入假正例。

另外,需要注意的是,这里只是将需要赋值的文本框内的区域缩小,但文本框的坐标本身是没有改变的!

get_score_geo(ii)

以上还有个处理技巧,就是将文本框旋转到和水平轴夹角为0的情况(即将斜的框旋转为正的),这样对d的计算更加方便。

接下来对旋转后图像每点(包括在文本框外的)都计算d,d若大于文本框边长也代表在文本框外,但是由于我们有mask,因此这部分也会被置0。

注意,geo那里使用的是'+=',是因为图像中可能有多个文本框,而这里我们计算的是一个文本框。

get_score_geo(iii)

在处理每一个文本框的过程中,记录了特征图中哪些位置该忽略(即不属于文本框内部),哪些位置该赋值(即处于文本框内部),最后就是将 ignore map 和 score map 分别用这些多边形填充。

get_score_geo(iv)

下一部分,会对以上谈到的那个“艺术”部分进行解读,看具体是如何将文本框顶点进行内缩的。

04 shrink_poly:将文本框顶点向内移动,使得文本框区域变小

首先是计算出文本框每个顶点的短边长度,计算边长就是计算顶点之间的距离。

shrink_poly(i)

然后判断下文本框两对对边哪一对的长度和更长,先移动长的那一对边(2条边,4个顶点)。

shrink_poly(ii)

注意,以上move_points 代表移动一条边,即2个顶点,返回的是移动后顶点的坐标(包括未移动的),接下来看看具体是如何移动顶点的。

05 move_points:将顶点向文本框内部移动

move_points(i)

以下是这部分重点。对于一条边上的这两个顶点,分别计算它们各自短边0.3倍边长相对于它们组成的这条边的比例,然后它们的横纵坐标分别按其对应的这个比例进行移动,两者移动的方向相反,从而使得两个顶点会相互靠近。

move_points(ii)

需要注意一点,若这两个顶点本身距离不超过1,那就不必移动了,因为这说明两者还未相隔超过1个pixel。

06 find_min_rect_angle: 寻找文本框的最小外接矩形,获得对应的旋转角度

我们知道,场景文字的方向并不都是水平的,因此文本框与水平轴是有一定角度的,那么如何知道这个角度是多少呢?

此处是通过枚举的方式,对于在 [

] 范围内的每个角度,都将文本框进行对应的旋转,旋转后记录对应的外接矩形面积,文本框和前10个面积最小的外接矩形的拟合误差,最终选取误差最小的那个方案对应的旋转角。

find_min_rect_angle(i)

find_min_rect_angle(ii)

为了方便理解,CW 特意画了个图(虽然很丑哈哈哈):

文本框旋转,与外接矩形的拟合误差

如上图,v1、v2、v3、v4是文本框4个顶点,文本框与水平轴的真实夹角是

,假设我们在枚举过程中遇到一角度

,然后将文本框进行对应旋转,旋转后的外接矩形就是上图右上部分的ABCD,阴影部分就是外接矩形比文本框多出来的面积。

我们可以认为,这个面积越小则外接矩形与文本框越相近,误差也越小,因此我们选取面积最小的前10个外接矩形道理就在于此。

理想情况下,我们找到了真实的角度

,这时候旋转文本框,得到的外接矩形就会和文本框重合(当然,文本框不是直角矩形而是其它多边形形状时,不会重合),如上图中间部分,这时候外接矩形的面积最小,拟合误差最小。

07 cal_error:计算文本框与外接矩形的拟合误差

由上一部分我们知道,拟合误差与外接矩形面积有正相关关系,现在就来看看这个误差值具体是通过什么来计算的。

cal_error
cal_error

上图代码应该交代的很明白了,拟合误差实质就是文本框与外接矩形4个顶点之间对应距离之和

08 rotate_all_pixels:旋转图像中的所有点

最后来看看图像中的点是如何旋转的。

rotate_all_pixels(ii)
rotate_all_pixels(ii)
rotate_all_pixels(ii)
rotate_all_pixels(ii)

以上的rotate_mat是旋转操作对应的仿射变换矩阵,根据旋转角即可计算获得:

get_rotate_mat
get_rotate_mat

09 结语

数据预处理与标签生成的源码解析就到此为止了,CW通过代码了解到,这里面还是有不少trick的,从而感受到作者在其中加入了很多对生活实际情况的思考。由此可知,作为技术工程师,必须多多观察与思考,在生活中汲取灵感,这样才能真正创造出实用有效的东西

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
文字识别
文字识别(Optical Character Recognition,OCR)基于腾讯优图实验室的深度学习技术,将图片上的文字内容,智能识别成为可编辑的文本。OCR 支持身份证、名片等卡证类和票据类的印刷体识别,也支持运单等手写体识别,支持提供定制化服务,可以有效地代替人工录入信息。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档