发布

计算机视觉

专栏成员
180
文章
194747
阅读量
27
订阅数
一文了解视觉Transformer解析 !!
自2017年“注意力就是一切”的理念问世以来,Transformer模型便迅速再自然语言处理(NLP)领域展露头角,确立了其领先地位。到了2021年,“一张图片等于16x16个单词”的理念成功将Transformer模型引入计算机视觉任务中。自此以后,众多基于Transformer的架构纷纷涌现,应用于计算机视觉领域。
JOYCE_Leo16
2025-02-02
2030
数据压缩的十种常用算法!!
数据压缩是保留相同或绝大部分数据前提下减小文件大小的过程。它的原理是消除不必要的数据或以更高效的格式重新组织数据。在进行数据压缩时,你可以选择使用有损方法或无损方法。有损方法会永久性地擦出掉一些数据,而无损方法则能保证持有全部的数据。使用哪类方法取决于你要让你的文件保持多大的精准度。
JOYCE_Leo16
2025-01-01
1850
一文搞懂卷积核的基本概况 !!
在卷积神经网络里,卷积核其实就是一个过滤器,但在深度学习里,它不做反转,而是直接执行逐元素的乘法和加法,我们把这个又称为互相关,在深度学习里称为卷积。
JOYCE_Leo16
2024-11-09
3850
7大类卷积神经网络(CNN)创新综述
通过1989年LeCun处理网络状拓扑数据(图像和时间系列数据)的研究,CNN首次受到关注。CNN被视为理解图像内容的最好技术之一,并且在图像识别、分割、检测和检索相关任务上表现出了当前最佳性能。CNN的成功引起了学界外的注意。在产业界,如谷歌、微软、AT&T、NEC和Facebook这样的公司都设立了研究团队来探索CNN的新架构。目前,图像处理竞赛中的大多数领跑者都会采用基于深度CNN等模型。
JOYCE_Leo16
2024-10-25
2710
一文搞懂 PyTorch 中的 torch.nn模块 !!
在深度学习领域,PyTorch是一个非常流行的框架,而 torch.nn 模块是PyTorch中用于构建神经网络的核心模块。
JOYCE_Leo16
2024-10-19
1.1K0
深度学习500问——Chapter17:模型压缩及移动端部署(5)
ShuffleNet 是Face++团队提出的,晚于MobileNet两个月在arXiv上公开《ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices 》用于移动端前向部署的网络架构。ShuffleNet基于MobileNet的group思想,将卷积操作限制到特定的输入通道。而与之不同的是,ShuffleNet将输入的group进行打散,从而保证每个卷积核的感受野能够分散到不同group的输入中,增加了模型的学习能力。
JOYCE_Leo16
2024-10-19
1020
一文搞懂像素、特征和决策级融合的区别 !!
在图像处理和计算机视觉领域,图像融合技术通过整合来自多个传感器或模型的信息,提高图像质量、特征提取和识别精度。根据融合的层次,图像融合可以分为三类:像素级融合、特征级融合和决策级融合。本文将详细介绍这三者的区别以及各自的优势和应用场景。
JOYCE_Leo16
2024-10-18
6500
深度学习500问——Chapter17:模型压缩及移动端部署(4)
SqueezeNet出自 F.N.landola, S.Han等人发表的论文《SqueezeNet:ALexNet-level accuracy with 50x fewer parameters and < 0.5MB model size》,作者在保证精度不损失的同时,将原石AlexNet压缩至原来的510倍。
JOYCE_Leo16
2024-10-12
1300
深度学习500问——Chapter17:模型压缩及移动端部署(3)
(1)对于在线计算内存存储有限的应用场景或设备,可以选择参数共享和参数剪枝方法,特别是二值量化权值和激活、结构化剪枝。其他方法虽然能够有效的压缩模型中的权值参数,但无法减小计算中隐藏的内存大小(特征图)。
JOYCE_Leo16
2024-10-02
950
深度学习500问——Chapter17:模型压缩及移动端部署(2)
基于低秩分解的深度神经网络压缩与加速的核心思想是利用矩阵或张量分解技术估计并分解深度模型中的原始卷积核。卷积计算是整个卷积神经网络中计算复杂度最高的计算操作,通过分解4D卷积核张量,可以有效减少模型内部的冗余性。
JOYCE_Leo16
2024-10-01
1210
深度学习500问——Chapter17:模型压缩及移动端部署(1)
模型压缩是指利用数据集对已经训练好的深度模型进行精简,进而得到一个轻量且准确率相当的网络,压缩后的网络具有更小的结构和更少的参数,可以有效降低计算和存储开销,便于部署再受限的硬件环境中。
JOYCE_Leo16
2024-10-01
1250
深度学习500问——Chapter15:异构计算,GPU和框架选型(2)
对于大部分用户来说,只要考虑计算能力就可以了。GPU内存尽量小于4GB。但如果GPU要同时显示图形界面,那么推荐的内存大小至少为6GB。内存带宽通常相对固定,选择空间较小。
JOYCE_Leo16
2024-09-27
1260
深度学习500问——Chapter15:异构计算,GPU和框架选型(1)
深度学习训练和推理的过程中,会涉及到大量的向量(vector),矩阵(matrix)和张量(tensor)操作,通常需要大量的浮点计算,包括高精度(在训练的时候)和低精度(在推理和部署的时候)。
JOYCE_Leo16
2024-09-27
1290
深度学习500问——Chapter14:超参数调整(3)
这几方面都对最终的结果有着举足轻重的影响,这也是目前的数据工程师和学者们的主要工作。但由于这每一方面都十分繁琐,尤其是在构建模型和训练模型上,而大部分情况下,这些工作有无须过深专业知识就能使用起来。所以AutoML主要的作用就是来帮助实现高效的模型构建和超参数调整。
JOYCE_Leo16
2024-09-25
1110
深度学习500问——Chapter14:超参数调整(2)
在讨论如何调试模型之前,我们先来纠正一个误区。通常理解如何调试模型的时候,我们想到一系列优秀的神经网络模型以及调试技巧。但这里需要指出的是数据才是模型的根本,如果有一批质量优秀的数据,或者说你能将数据质量处理的很好的时候,往往比挑选或者设计模型的收益来的更大。那在这之后才是模型的设计和挑选以及训练技巧上的事情。
JOYCE_Leo16
2024-09-23
1020
深度学习500问——Chapter14:超参数调整(1)
关于训练深度学习模型最难的事情之一是你要处理的参数的数量。无论是从网络本身的层宽(宽度)、层数(深度)、连接方式,还是损失函数的超参数设计和调试,亦或者是学习率、批样本数量、优化器参数等等。这些大量的参数都会有网络模型最终的有效容限直接或间接的影响。面对如此众多的参数,如果我们要一一对其优化调整,所需的无论是时间、资源都是不切实际的。结果证实一些超参数比其他的更为重要,因此认识各个超参数的作用和其可能会造成的影响是深度学习训练中必不可少的一项重要技能。
JOYCE_Leo16
2024-09-23
1360
深度学习500问——Chapter13:优化算法(3)
评价模型不仅要从模型的主要指标上的性能,也要注重模型的稳定性。模型的稳定性体现在对不同样本之间的体现的差异。如模型的方差很大,那可以从如下几个方面进行考虑:
JOYCE_Leo16
2024-09-11
1110
深度学习500问——Chapter13:优化算法(2)
对象本身会有许多属性。所谓特征,即能在某方面能表征对象的一个或者一组属性。一般地,我们可以把特征分为如下三种类型:
JOYCE_Leo16
2024-09-09
1220
深度学习500问——Chapter13:优化算法(1)
目前大部分的深度学习模型仍然需要海量的数据支持。例如ImageNet数据就拥有1400多万的图片,而现实生产环境中,数据集通常较小,只有几万甚至几百个样本。这时候,如何在这种情况下应用深度学习呢?
JOYCE_Leo16
2024-09-08
1300
Python基础知识——(005)
“左移位”运算(<<)是将一个二进制数向左移动指定的位数,左边(高位端)溢出的位被丢弃,右边(低位端)的空位用0补充。
JOYCE_Leo16
2024-07-25
1050
点击加载更多
社区活动
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档