前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >图像去重,4 行代码就能实现,你值得拥有imagededup

图像去重,4 行代码就能实现,你值得拥有imagededup

作者头像
CV君
发布2019-12-27 11:11:01
6.8K0
发布2019-12-27 11:11:01
举报
文章被收录于专栏:我爱计算机视觉

现实中我们经常需要用到图像去重,比如为了扩充人脸图像,可以在百度、Google通过关键词下载大量人脸图像,但这些图像可能存在重复,在合并时需要去重。

这里的重复,是指图像内容完全一样,或者有少量的尺度、位移、色彩、亮度变化,或者是添加了少量其他内容等。

当然,我们可以使用类似SIFT图像匹配的方式实现,但这是很慢的。

考虑大规模图像检索去重,一般的流程是全局特征提取+特征hash+二值特征比较。

这里的全局特征提取,可以是直接在图像上进行小波变换、Gabor变换等,也可以是提取图像局部特征(如SIFT)再使用类似VLAD算法特征聚合,或者是直接提取CNN特征。

来自德国商品比较服务商Idealo开源的imagededup(图像去重的英文),是我们快速实现功能的首选。

开源地址:

https://github.com/idealo/imagededup

该库于今年4月份开源,已经有1600+颗星,最近两天还冲上了Github趋势榜。

可以使用 pip 直接安装:

代码语言:javascript
复制
pip install imagededup

仅需要 4 行代码即可实现图像去重:

代码语言:javascript
复制
from imagededup.methods import PHash
phasher = PHash()

# 生成图像目录中所有图像的二值hash编码
encodings = phasher.encode_images(image_dir='path/to/image/directory')

# 对已编码图像寻找重复图像
duplicates = phasher.find_duplicates(encoding_map=encodings)

# 给定一幅图像,显示与其重复的图像
from imagededup.utils import plot_duplicates
plot_duplicates(image_dir='path/to/image/directory',
                duplicate_map=duplicates,
                filename='ukbench00120.jpg')

实际上核心代码就 2 行。

显示结果如下:

上述被检索出来的重复图像的主体内容是相同的,只是拍摄角度稍有不同。

该库目前包含的算法有:

  • Convolutional Neural Network (CNN)
  • Perceptual hashing (PHash)
  • Difference hashing (DHash)
  • Wavelet hashing (WHash)
  • Average hashing (AHash)

另外还支持对给定有标注的重复图像库进行算法评估。

开源地址:

https://github.com/idealo/imagededup

文档地址:

https://idealo.github.io/imagededup/

Idealo公司主营业务即商品比价,图像检索是查询相同商品的重要手段,所以其开源的imagededup应该挺值得大家参考。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-10-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 我爱计算机视觉 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档