crnn/model
(建立model文件夹),卡号定位模型放置于east/model
python demo.py
注*:因CRNN模型代码更新,此模型故已弃用。可在下文下载其预训练网络。
AI项目体验地址 https://loveai.tech
在这里因为给定的数据集都是每一个上有四个数字(有些为空格),但是所识别的最终目标——银行卡号有不定的长度。现在比较流行的解决方案是CRNN和CTC损失函数。于是我就这么做吧,CNN部分参考自VGG网络,RNN则使用的是双向LSTM(简称BLSTM),使用GRU也可以实现,可以下来试试。
这个模型不好的地方是训练。训练参数可以在crnn/cfg.py
中设置,性能较为一般的显卡推荐使用默认设置,性能卓越的显卡可以增大BATCH_SIZE
或EPOCH
。识别效果如下图:
模型的训练方法如下:
crnn/cfg.py
的PRE_TRAINED_MODEL_PATH
变量中python crnn/preprocess.py
python crnn/run.py
注:模型训练的数据集是由子数据集(4-6个)拼凑而成的不定长度的数据,crnn/cfg.py
中的MAX_LABEL_LENGTH
用来设置数据的最大长度。这部分数据是通过运行crnn/preprocess.py
生成,可以通过AUG_NBR
设置生成数据集个数。其效果如下:
这一部分是重中之重,考虑到自己还没有能力去研究新的图像字符定位算法,就参考了许多这类算法。现在比较成功的莫过于CTPN了,其次也有Faster-RCNN,EAST,Seg-Link等等。而偏偏选用EAST的原因可能是一见钟情吧(名字好听)。
此部分引用的是EAST的Keras实现,但此EAST并非原生的EAST,而是改进的AdvancedEAST
这个模型特点之一就是方便训练,直观也简练。训练方法及更多原理参见原文部分。
特别值得提起的是数据集,是我自己从互联网上搜罗来的,然后还进行了标注。过程比较痛苦。面临的问题是,几百张数据可能训练不出好的模型,所以后期使用自动定位不成功的,可能原因之一就是数据集太小(我…尽力了…)。但是用于这样的小系统开发,还是有一定的使用价值。
如果你有更多的数据的话,若想进行标注。懂的同学可以标注直接标注为 ICDAR 2015的格式,不懂的同学则可以使用dataset/tagger.py
简陋的标注器来标注,标注方法:以目标区域左上角开始,顺时针的点击物体的角点,直到最后一个点,可在数据同目录的txt
下看到形如x1,y1,x2,y2,x3,y3,x4,y4,###
的值###
表示忽略目标内容。如果成功标注完成,在east
目录下运行python east/preprocess.py
得到形如以下形式的图像,就代表成功了。
模型的训练方法如下:
python east/preprocess.py
(可选,若数据集有变更则运行)python east/run.py
注:部分参数可以在east/cfg.py
中设置,推荐使用默认。
使用了Qt对Python的接口PyQt5来完成,UI设计使用QtDesigner来完成。整体效果如下:(且不说美,起码能看,中规中矩吧)
除了读取(Load)和识别(Identify)两个按钮外,还有复制(Copy)和一些调整视图的按钮,旋转和缩放,基本够用了。 把定位和识别功能都集成在了Identify按钮上,点击Load读取照片后,直接点击这个按钮就好。效果如下:
但是也想之前所述,因为训练数据的贫乏,导致部分测试数据无法定位。后期可通过增大训练数据集解决。目前自动定位失败主要集中在卡号和卡片背景颜色相近的情况,例如都偏暗,或者都偏亮。可以在定位之前,给测试数据加上若干预处理操作,如提高亮度,增加对比度等。
如果自动识别失败或定位效果不理想,可以启动手动定位,使用方法是:在图片显示部分鼠标双击左键,即可激活矩形选框,再进行选择就好了。(如果非要选择不是银行卡的部分,那也拿你没办法,你开心就好:) 下面是一些手动定位操作的GIF图: