Loading [MathJax]/jax/output/CommonHTML/fonts/TeX/AMS-Regular.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >匹配追踪算法(MP)简介

匹配追踪算法(MP)简介

作者头像
卡尔曼和玻尔兹曼谁曼
修改于 2019-02-05 22:53:36
修改于 2019-02-05 22:53:36
3.2K0
举报

图像的稀疏表征

分割原始图像为若干个n×n的块. 这些图像块就是样本集合中的单个样本. 在固定的字典上稀疏分解后,得到一个稀疏向量. 将所有的样本进行表征一户,可得原始图像的稀疏矩阵. 重建样本时,通过原子集合即字典中少量元素进行线性组合即可:

其中,上的分解系数,也称为稀疏系数.

字典矩阵中的各个列向量被称为原子(Atom). 当字典矩阵中的行数小于甚至远小于列数时,即,字典是冗余的。所谓完备字典是指原子可以张成纬欧式空间. 如果在某一样本在一过完备字典上稀疏分解所得的稀疏矩阵含有大量的零元素,那么该样本就可以被稀疏表征,即具有稀疏性。一般用$l_0$范数作为稀疏度量函数,图像的稀疏表征数学模型如下:

稀疏表征不仅具有过完备性,还应该具有稀疏性。对于一个过完备字典,为了可以分解出更合适且稀疏的稀疏表征,应当含有更多的原子。

在稀疏表征理论方面的研究主要可分为两个方面:字典的构建和稀疏编码.

稀疏编码的目标就是在满足一定的稀疏条件下,通过优化目标函数,获取信号的稀疏系数. 经典的算法有匹配追踪(Matching Pursuit,MP)、正交匹配追踪(Orthogonal Matching Pursuit,OMP)、基追踪(Basis Pursuit,BP)算法等.

MP算法是稀疏表征中用于稀疏求解的最基本方法之一. 我在学习过程中参考网上一些资料,觉得大部分写得比较理论化,看起来稍微吃力一些. 阅读了Koredianto Usman的Introduction to Matching Pursuit(MP)一文,我觉得这篇文章写得很不错,从实例出发,很好接. 这篇博文是我对该文章翻译的基础上而写的.

注:

  1. 原文中有一些小错误,我在译文中进行了修改. 有对照原文阅读的同学,若发现有不一致,请不要奇怪.
  2. 所有计算结果都保留两位小数.

问题提出

考虑下面一个简单例子:

给定稀疏信号

字典矩阵A为:

(注:原文中称为measurement matrix)

所以,

现在,给定,

如何求得$x$呢?

匹配追踪

在上面的列子中中的列向量称之为Basis(基)或者Atoms(原子). 所以,我们有如下原子:

因为,如果我们令.

是原子的线性组合

从上面的方程可以看出,值的贡献最大,然后是,最后是. 匹配追踪算法刚好逆方向进行计算:我们首先从中选出对值贡献最大的,然后从差值(residual)中选出贡献次大的,以此类推.

而贡献值的计算通过内积(点积)进行计算,MP算法步骤如下:

  1. 选择对值贡献最大的原子
  2. 计算差值 (注:该公式在原文中稍微有点问题,这里做了修正. 对于
  3. 选择剩余原子中与内积最大的
  4. 重复步骤2和3,直到差值小于给定的阈值(稀疏度)

下面进行实例计算:

首先,分别计算的内积:

取绝对值以后,我们可以发现得到最大的内积值. 然后,在第一步中我们选择. 接下来计算差值:

接来下,计算差值和的内积:

取绝对值以后,值的贡献最大。

接下来,计算差值

最后,计算的内积:

所以,最后的三个稀疏稀疏是

这和准确的系数很接近

反酸回去,和给定的也很接近.

MP算法实质

从下面的图,我们可以很清楚地看到MP算法的实质:就是利用原子向量的线性运算去逐渐去逼近信号向量,经过不停地迭代,最后达到给定的稀疏度.

匹配追踪算法可以直接得到信号稀疏性的表达. 以贪婪迭代的方法选择$\mathrm{D}$的列,使得在每次迭代的过程中所选择的列与当前冗余向量最大程度的相关.

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2017年10月11日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
移动端高效网络,卷积拆分和分组的精髓
在移动端高效的模型设计中,卷积拆分和分组几乎是不可缺少的思想,那么它们究竟是如何高效,本身又有哪些发展呢。
OpenCV学堂
2019/07/04
1.3K0
【知识星球】卷积核和感受野可动态分配的分组卷积
欢迎大家来到《知识星球》专栏,这里是网络结构1000变小专题,我们要慢慢开始更新AutoML与网络设计相关的内容。
用户1508658
2019/11/01
8440
【知识星球】卷积核和感受野可动态分配的分组卷积
深度学习500问——Chapter17:模型压缩及移动端部署(4)
SqueezeNet出自 F.N.landola, S.Han等人发表的论文《SqueezeNet:ALexNet-level accuracy with 50x fewer parameters and < 0.5MB model size》,作者在保证精度不损失的同时,将原石AlexNet压缩至原来的510倍。
JOYCE_Leo16
2024/10/12
1460
深度学习500问——Chapter17:模型压缩及移动端部署(4)
Xception网络架构的一些理解
https://www.davex.pw/2018/02/05/breadcrumbs-about-inception-xception/
小草AI
2019/05/29
2.6K0
卷积神经网络中十大拍案叫绝的操作
CNN从2012年的AlexNet发展至今,科学家们发明出各种各样的CNN模型,一个比一个深,一个比一个准确,一个比一个轻量。我下面会对近几年一些具有变革性的工作进行简单盘点,从这些充满革新性的工作中探讨日后的CNN变革方向。 注:水平所限,下面的见解或许有偏差,望大牛指正。另外只介绍其中具有代表性的模型,一些著名的模型由于原理相同将不作介绍,若有遗漏也欢迎指出。 一、卷积只能在同一组进行吗?-- Group convolution Group convolution 分组卷积,最早在AlexNet中出
CSDN技术头条
2018/02/06
4.4K0
卷积神经网络中十大拍案叫绝的操作
从LeNet到SENet——卷积神经网络回顾
AI 科技评论按:本文为浙江大学范星为 AI 科技评论撰写的独家稿件,未经许可不得转载。 从 1998 年经典的 LeNet,到 2012 年历史性的 AlexNet,之后深度学习进入了蓬勃发展阶段,百花齐放,大放异彩,出现了各式各样的不同网络,包括 LeNet、AlexNet、ZFNet、VGG、NiN、Inception v1 到 v4、Inception-ResNet、ResNet、WRN、FractalNet、Stochastic Depth、DenseNet、ResNeXt、Xception、SE
AI科技评论
2018/03/06
1.3K0
从LeNet到SENet——卷积神经网络回顾
纵览轻量化卷积神经网络:SqueezeNet、MobileNet、ShuffleNet、Xception
机器之心专栏 作者:余霆嵩 本文就近年提出的四个轻量化模型进行学习和对比,四个模型分别是:SqueezeNet、MobileNet、ShuffleNet、Xception。 目录 一、引言 二、轻量化模型 2.1 SqueezeNet 2.2 MobileNet 2.3 ShuffleNet 2.4 Xception 三、网络对比 一、引言 自 2012 年 AlexNet 以来,卷积神经网络(简称 CNN)在图像分类、图像分割、目标检测等领域获得广泛应用。随着性能要求
机器之心
2018/05/11
1.7K0
mobilenet改进_常用的轻量化网络
最近出了一篇旷视科技的孙剑团队出了一篇关于利用Channel Shuffle实现的卷积网络优化——ShuffleNet。我关注了一下,原理相当简单。它只是为了解决分组卷积时,不同feature maps分组之间的channels信息交互问题,而提出Channel Shuffle操作为不同分组提供channels信息的通信的渠道。然而,当我读到ShuffleNet Unit和Network Architecture的章节,考虑如何复现作者的实验网络时,总感觉看透这个网络的实现,尤其是我验算Table 1的结果时,总出现各种不对。因此我将作者引用的最近几个比较火的网络优化结构(MobileNet,Xception,ResNeXt)学习了一下,终于在ResNeXt的引导下,把作者的整个实现搞清楚了。顺带着,我也把这项技术的发展情况屡了一下,产生了一些个人看法,就写下这篇学习笔记。
全栈程序员站长
2022/10/03
9550
mobilenet改进_常用的轻量化网络
【星球知识卡片】深度学习图像降噪有哪些关键技术点,如何学习
图像去噪模型的输出是无噪声的图像,与输入图像大小相同,所以可以使用图像分割一类的模型,即经典的基于跳层连接的卷积与反卷积对称结构,优化目标为逐个像素的欧式距离损失。另外在信息处理领域中,学习信号的改变量往往比学习原始信号更加简单,这被用于非常有效的残差网络。DnCNN模型借鉴了这个思路,它不是直接输出去噪图像,而是预测残差图像,即噪声观察和潜在的干净图像之间的差异。
用户1508658
2020/11/03
1.1K0
【星球知识卡片】深度学习图像降噪有哪些关键技术点,如何学习
【模型解读】说说移动端基准模型MobileNets
Google开发的MobileNets【1】是用于嵌入式平台计算机视觉应用的基准模型。MobileNets是流线型的架构,它使用depthwise sparable convolution(深度可分离卷积)来构建轻量级的深层神经网络。通过引入两个简单的全局超参数,可实现在速度和准确度之间有效地进行平衡。这两个超参数允许模型构建者根据问题的约束条件,为其应用选择合适大小的模型。MobileNets应用在广泛的场景中,包括物体检测,细粒度分类,人脸属性等。
用户1508658
2019/07/25
3850
【模型解读】说说移动端基准模型MobileNets
深度学习与CV教程(10) | 轻量化CNN架构 (SqueezeNet,ShuffleNet,MobileNet等)
卷积神经网络的结构优化和深度加深,带来非常显著的图像识别效果提升,但同时也带来了高计算复杂度和更长的计算时间,实际工程应用中对效率的考虑也很多,研究界与工业界近年都在努力「保持效果的情况下压缩网络复杂度」,也诞生了很多轻量化网络。在本篇内容中,ShowMeAI对常见主流轻量级网络进行展开讲解。
ShowMeAI
2022/06/09
2.1K0
深度学习与CV教程(10) | 轻量化CNN架构 (SqueezeNet,ShuffleNet,MobileNet等)
【综述】神经网络中不同种类的卷积层
在深度学习中,卷积的目的是从输入中提取有用的特征。在图像处理中,卷积滤波器的选择范围非常广,每种类型的滤波器(比如Sobel算子、Canny算子等)都有助于从输入图像中提取不同的方面或者特征,比如水平、垂直、边缘或对角线等特征。
BBuf
2020/03/19
1.2K0
【综述】神经网络中不同种类的卷积层
孙剑团队提出移动端神经网络ShuffleNet,优于谷歌MobileNet
【新智元导读】在视觉人工智能系统中,卷积神经网络(CNN)起着至关重要的作用。旷视(Face++)孙剑等人的研究团队最近发表了《ShuffleNet:一种极高效的移动端卷积神经网络》一文,作者针对移动端低功耗设备提出了一种更为高效的卷积模型结构,在大幅降低模型计算复杂度的同时仍然保持了较高的识别精度,并在多个性能指标上均显著超过了同类方法。本文将对该成果进行详细解读。 (论文下载地址:https://arxiv.org/abs/1707.01083) ShuffleNet的设计思想 卷积神经网络是现代视觉人
新智元
2018/03/27
1.4K0
孙剑团队提出移动端神经网络ShuffleNet,优于谷歌MobileNet
【完结】总结12大CNN主流模型架构设计思想
LeNet5不是CNN的起点,但却是它的hello world,让大家看到了卷积神经网络商用的前景。
用户1508658
2019/07/26
9010
【完结】总结12大CNN主流模型架构设计思想
深度学习和深度强化学习的特征提取网络
标题:Backbones-Review:Feature Extraction Networks for Deep Learning and Deep Reinforcement Learning Approaches
一点人工一点智能
2023/06/06
1.3K0
深度学习和深度强化学习的特征提取网络
深入剖析MobileNet和它的变种(例如:ShuffleNet)为什么会变快?
最近在看轻量级网络的东西,发现这篇总结的非常的好,因此就翻译过来!总结各种变种,同时原理图非常的清晰,希望能给大家一些启发,如果觉得不错欢迎三连哈!
AI算法与图像处理
2020/07/15
1.1K0
推荐阅读
相关推荐
移动端高效网络,卷积拆分和分组的精髓
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档