首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

【卷积神经网络结构专题】一文详解AlexNet(附代码实现)

直到2012年AlexNet在ImageNet竞赛中以超过第二名10.9个百分点的绝对优势一举夺冠开始,深度学习和卷积神经网络一举成名。自此,深度学习的相关研究越来越多,一直火到了今天。...如上图所示,AlexNet网络架构的参数统计如下: 卷积层:5层 全连接层:3层 池化层:3层 深度:8层 参数个数:60M 神经元个数:650k 分类数目:1000类 网络基本架构为:conv1 (96...AlexNet有着和LeNet-5相似网络结构,但更深、有更多参数。conv1使用11×11的滤波器、步长为4使空间大小迅速减小(227×227 -> 55×55)。...AlexNet网络结构流程图 注意:数据输入时,图片大小为[224,224,3],第一个卷积层conv1的卷积核尺寸为,滑动步长为,卷积核数目为96。...2.使用了随机失活(dropout)。 Dropout属于正则化技术中的一种,dropout的作用是增加网络的泛化能力,可以用在卷积层和全连接层。

4.4K11

【小白学习PyTorch教程】十三、迁移学习:微调Alexnet实现ant和bee图像分类

在参加 ImageNet 大规模视觉识别挑战赛后,AlexNet 一举成名。Alexnet在分类任务中实现了 84.6% 的前 5 名准确率,而排名第二的团队的前 5 名准确率为 73.8%。...= 上图是2012 Imagenet 挑战赛的 Alexnet 架构 224x224x3 227x227x3 AlexNet 架构由 5 个卷积层、3 个最大池化层、2 个归一化层、2 个全连接层和...每个卷积层由卷积滤波器和非线性激活函数ReLU组成。 池化层用于执行最大池化。 由于全连接层的存在,输入大小是固定的。...ReLU(inplace=True) (6): Linear(in_features=4096, out_features=1000, bias=True) ) ) 通过转移学习,我们将使用从卷积层中提取的特征...需要把最后一层的out_features=1000,改为out_features=2 因为我们的模型只对蚂蚁和蜜蜂进行分类,所以输出应该是2,而不是AlexNet的输出层中指定的1000。

72820
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    深度学习与CV教程(9) | 典型CNN架构 (Alexnet,VGG,Googlenet,Restnet等)

    384, 384, 256个滤波器,而是使用 512, 1024, 512个。...1.2 VGG VGG 相对于AlexNet使用更小的卷积核,层数也更深。VGG有16层和19层两种。...卷积核只使用 3 \times 3,步长为 1,pad为 1;池化区域 2 \times 2,步长为2。 图片 那么为什么使用 3 \times 3的小卷积核呢?...下面看一下VGG-16的参数和内存使用情况: 图片 总内存占用:24M * 4 bytes,每张图片约96MB,加上反向传播需要乘以2;大多数内存都用在了前面几层卷积层; 总参数个数:138M,大多都在全连接层...VGG网络的一些细节是: 14年ImageNet大赛分类第二名,定位第一名 训练过程和AlexNet很接近 不使用局部响应归一化 有16层和19层两种,19层效果稍微好一些,但是占用更多内存,16层应用的更广泛

    74072

    深度学习-AlexNet(第一个深度卷积网络)

    AlexNet模型结构如下: 包括5个卷积层、3个全连接层。分别部署在2个GPU上,这里写在一起即可。...卷积层1 输入RGB三通道,即3×224×224的图像; 使用96个大小为11×11的卷积核,步长4,填充2; 输出96×55×55特征; ReLu激活; 最大池化,核大小3×3,步长2(重叠池化...); 输出96×27×27特征; 卷积层2 输入特征图大小96×27×27; 使用256个大小为5×5的卷积核,步长1,填充2; 输出256×27×27特征; ReLu激活; 最大池化...,核大小3×3,步长2(重叠池化); 输出256×13×13特征; 卷积层3 输入特征图大小256×13×13; 使用384个大小为3×3的卷积核,步长1,填充1; 输出384×13×13...特征; ReLu激活; 卷积层4 输入特征图大小384×13×13; 使用384个大小为3×3的卷积核,步长1,填充1; 输出384×13×13特征; ReLu激活; 卷积层5

    63220

    深度学习理论篇之 ( 十四) -- AlexNet之更上一楼

    在应用中,损失函数通常作为学习准则与优化问题相联系,即通过最小化损失函数求解和评估模型。...# 前言 # 上一期文章中,我们学习了LetNet-5的理论篇文章,详细分析了该网络的每一层结构和维度信息,然后在实战篇中进行代码实战,通过学习和实战,我们发现LetNet-5的网络结构似乎有点简单...3.最大池化层1: 输入:96*55*55 池化核大小:3*3 池化核个数:96 步长:2 输出特征图大小:(55-3)/2+1 =27,即 27*27 输出特征图shape: 96*27*27 4.卷积层....卷积层3: 输入:256*13*13 卷积核大小:3*3 卷积核个数:384 步长:默认为1 padding:SAME 输出特征图大小:由于padding为SAME,保持与原始特征图一样的大小:13*...13 输出特征图shape:384*13*13 代表384个13*13的特征图. 7.卷积层4: 输入:384*13*13 卷积核大小:3*3 卷积核个数:384 步长:默认为1 padding:SAME

    51220

    从LeNet到GoogLeNet:逐层详解,看卷积神经网络的进化

    AlexNet采用8层的神经网络,5个卷积层和3个全连接层(3个卷积层后面加了最大池化层),包含6亿3000万个链接,6000万个 参数和65万个神经元。...=34944(每个滤波器11113个unit参数和一个bias参数,一共96个滤波器) ReLU 卷积后的55×55像素层经过ReLU单元的处理,生成激活像素层,尺寸仍为2组55×55×48的像素层数据...:58631144,占总参数量的96.2% 说明全连接还是占了大部分的参数 一些人提出的改进可能: 第一个卷积层使用的是11*11的滤波器,导致无法提取更细粒度的特征,是否可以使用更多更小的滤波器来代替第一个卷积层...但是,计算机对非均匀稀疏数据的计算非常低效,所以在AlexNet中又重新使用了全连接层,目的是就为了更好地进行并行运算。...×192×64+3×3×192×128+5×5×192×32,而b图对3×3和5×5卷积层前分别加入了通道数为96和16的1×1卷积层,这样卷积核参数就变成了1×1×192×64+(1×1×192×96

    3.8K32

    从LeNet到GoogLeNet:逐层详解,看卷积神经网络的进化

    AlexNet采用8层的神经网络,5个卷积层和3个全连接层(3个卷积层后面加了最大池化层),包含6亿3000万个链接,6000万个 参数和65万个神经元。...=34944(每个滤波器11113个unit参数和一个bias参数,一共96个滤波器) ReLU 卷积后的55×55像素层经过ReLU单元的处理,生成激活像素层,尺寸仍为2组55×55×48的像素层数据...:58631144,占总参数量的96.2% 说明全连接还是占了大部分的参数 一些人提出的改进可能: 第一个卷积层使用的是11*11的滤波器,导致无法提取更细粒度的特征,是否可以使用更多更小的滤波器来代替第一个卷积层...但是,计算机对非均匀稀疏数据的计算非常低效,所以在AlexNet中又重新使用了全连接层,目的是就为了更好地进行并行运算。...×192×64+3×3×192×128+5×5×192×32,而b图对3×3和5×5卷积层前分别加入了通道数为96和16的1×1卷积层,这样卷积核参数就变成了1×1×192×64+(1×1×192×96

    49230

    深度学习经典网络解析:2.AlexNet

    AlexNet的特点: 提出了一种卷积层加全连接层的卷积神经网络结构。 首次使用ReLU函数做为神经网络的激活函数。 首次提出Dropout正则化来控制过拟合。...3.2.3第三层(CONV2) 第三层 (CONV2): 96 个5x5 卷积核,步长为 1,使用零填充p=2 输入: 27x27x96 大小的特征图组 输出特征图尺寸:(27 - 5 + 2*2)/1...卷积核,步长为 1,使用零填充p=1 CONV3输入: 13x13x256 大小的特征图组 输出特征图尺寸:(13 - 3 + 2*1)/1+1 = 13 输出特征图个数:384 第三、四层(CONV3...、CONV4):之后没有进行最大池化与局部归一化 3.2.6第五层(CONV5) 第五层 (CONV5): 256 个3x3 卷积核,步长为 1,使用零填充p=1 CONV3输入: 13x13x384...其他方案: 平移、旋转、拉伸、径向畸变(相关描述见摄像机几何章节)、裁剪 AlexNet中使用了两种增大数据量的方法镜像反射和随机剪裁和改变训练样本RGB通道的强度值 方法一: 镜像反射和随机剪裁 然后在原图和镜像反射的图

    53931

    【AI前沿】深度学习基础:卷积神经网络(CNN)

    卷积操作是通过卷积核(也称为滤波器)进行的。卷积核在图像上滑动,并计算卷积核与图像局部区域的点积,生成特征图(Feature Map)。...AlexNet的结构比LeNet更深,包括五个卷积层和三个全连接层。其主要特点如下: 使用ReLU激活函数:ReLU激活函数加速了训练过程,并且有效缓解了梯度消失问题。...使用Dropout:在全连接层中使用Dropout防止过拟合。 数据增强:通过数据增强技术增加训练数据,提升模型的泛化能力。 GPU加速:AlexNet利用GPU进行计算,显著加速了训练过程。...AlexNet的基本结构如下: 输入层:224x224x3的彩色图像。 卷积层1:96个11x11的卷积核,步长为4,生成96个55x55的特征图。...卷积层4:384个3x3的卷积核,步长为1,生成384个13x13的特征图。 卷积层5:256个3x3的卷积核,步长为1,生成256个13x13的特征图。

    2.5K21

    要学习的第一个现代CNN:AlexNet

    从上图可以看到相对于LeNet(左侧),AlexNet(右侧)更深了,也应用了新的技术: AlexNet有5层卷积层(Conv层) 使用Max Pool 使用了ReLU激活函数 AlexNet支持更高分辨率的彩色图像...为什么用ReLU激活函数 首先ReLU函数不含有指数计算,在计算上比Sigmoid函数简单。...Pooling层的计算公式和卷积层的计算公式一样,再提一下计算公式为: [(nh - kh + 2*padding + stride) / stride] * [(nw - kw + 2*padding...的结构图里没有卷积层到全连接层的连接,但是实现时一定要加上。...由于这个数据集里就5种花朵,所以我直接将AlexNet的最后一层输出从1000改成5,其他的不动。 数据集在加载自己的图像数据集一文中说过了。

    19410

    基于Pytorch构建AlexNet网络对cifar-10进行分类

    AlexNet的结构比LeNet规模更大,AlexNet包含8层变换,其中包含5层卷积和2层全连接隐藏层,以及最后的一个全连接的输出层。...在AlextNet中,第一层中的卷积核的size为1111.第二层中的卷积核的size为55,之后的卷积核的size全部为33.此外,第1,2,5个卷积层的之后都使用了size为33,步长为2的最大池化...(4).卷积层2+ReLU+LRN:使用256个5*5的filter,stride为1,padding为2,输出为27*27*256,256个feature maps,训练参数(5*5*96*256)+...(6).卷积层3+ReLU:使用384个3*3的filter,stride为1,padding为1,输出为13*13*384,384个feature maps,训练参数(3*3*256*384)+384...(8).卷积层5+ReLU:使用256个3*3的filter,stride为1,padding为1,输出为13*13*256,256个feature maps,训练参数(3*3*384*256)+256

    71010

    从AlexNet理解卷积神经网络的一般结构

    卷积层如何操作 CNN中的卷积层操作与图像处理中的卷积是一样的,都是一个卷积核对图像做自上而下,自左而右的加权和操作,不同指出在于,在传统图像处理中,我们人为指定卷积核,比如Soble,我们可以提取出来图像的水平边缘和垂直边缘特征...输入层:227*227*3 C1:96*11*11*3 (卷积核个数/宽/高/厚度) C2:256*5*5*48(卷积核个数/宽/高/厚度) C3:384*3*3*256(卷积核个数/宽.../高/厚度) C4:384*3*3*192(卷积核个数/宽/高/厚度) C5:256*3*3*192(卷积核个数/宽/高/厚度) 针对这五层卷积,说明一下三点: 1.推导下C1后的输出是什么...这也就是为什么,在这个图上要画两个3*3*128的卷积核,他想表达的意思就是实际的卷积核尺寸是3*3*256!...激活层 池化操作用于卷积层内,而激活操作则在卷积层和全连接层都会用到,由于之前我已经写过关于激活函数的博客,在这里只简单说明下,具体内容大家可以在 理解激活函数在神经网络模型构建中的作用这个博客中了解。

    1.3K61

    TASK 5 AlexNet与VGG

    Dropout虽有单独的论文论述,但是AlexNet将其实用化,通过实践证实了它的效果。在AlexNet中主要是最后几个全连接层使用了Dropout。...1.3.2 最大池化 在CNN中使用重叠的最大池化。此前CNN中普遍使用平均池化,AlexNet全部使用最大池化,避免平均池化的模糊化效果。...[28 * 28 * 256]卷积层2。256个5 * 5 * 96卷积核,步长为1,全0填充。因此输出边长为ceiling(28 / 1) = 28。 [28 * 28 * 256]lrn层2。...因此输出的边长为ceiling((28 - 3 + 1) / 2) = 13 [13 * 13 * 384]卷积层3。384个3 * 3 * 256卷积核,步长为1,全0填充。...因此输出边长为ceiling(13 / 1) = 13 [13 * 13 * 384]卷积层4。卷积核和步长同上,输出边长仍然为13. [13 * 13 * 256]卷积层5。

    46430

    深度学习实战篇之 ( 十三) -- TensorFlow之AlexNet

    AlexNet之TensorFlow实战 1.数据准备 与上期文章不一样,我们换个数据集,本次采用五种类别的鲜花作为数据集,同样包含两个子集:训练集和验证集。 怎么样,鲜花好看吧!...2.网络结构 # AlexNet 网络结构 # 输入:3*227*2227 代表三通道的彩色图像输入,图像大小为227*227 # 卷积层1:卷积核大小为11*11 卷积核个数:96,步长:4 # 最大池化...1:采样区域:3*3, 步长:默认为1 # 卷积层2:积核大小为5*5 ,卷积核个数:256, 步长:1 # 最大池化2:采样区域:3*3, 步长:默认为1 # 卷积层3:积核大小为3*3 ,卷积核个数...# 卷积层4:积核大小为3*3 ,卷积核个数:384, 步长:1,采用padding。 # 卷积层5:积核大小为3*3 ,卷积核个数:256, 步长:1,采用padding。...结语 今天的分享就到此结束了,网络层的构建也比较简单,比较注意的是最后的三个卷积层的输出和其输入的shape是一样的,老铁们可以自行print看看结果哦,此外由于数据集的类别发生了变化,因此相应的数据处理部分和网络的输出部分也做了改变

    31210

    【模型解读】从LeNet到VGG,看卷积+池化串联的网络结构

    02AlexNet 2012年,Imagenet比赛冠军—Alexnet (以第一作者Alex命名)【2】直接刷新了ImageNet的识别率,奠定了深度学习在图像识别领域的优势地位。...总结: 1.网络比LeNet更深,包括5个卷积层和3个全连接层。 2.使用relu激活函数,收敛很快,解决了Sigmoid在网络较深时出现的梯度弥散问题。 3.加入了dropout层,防止过拟合。...6.分块训练,当年的GPU没有这么强大,Alexnet创新地将图像分为上下两块分别训练,然后在全连接层合并在一起。 7.总体的数据参数大概为240M。...如图中所示,共有13个卷积层,3个全连接层。其全部采用3*3卷积核,步长为1,和2*2最大池化核,步长为2。 1.Input层 输入图片为224*224*3。...全部使用3*3的卷积核和2*2的最大池化核。 3. 简化了卷积神经网络的结构。

    82120

    CNN卷积神经网络及图像识别

    , CNNs),虽然卷积网络也存在浅层结构,但是因为准确度和表现力等原因很少使用。...目前提到CNNs和卷积神经网络,学术界和工业界不再进行特意区分,一般都指深层结构的卷积神经网络,层数从”几层“到”几十上百“不定。...卷积 在CNN中,卷积可以近似地看作一个特征提取算子,简单来说就是,提取图片纹理、边缘等特征信息的滤波器。...卷积层的作用: 提取图像的特征,并且卷积核的权重是可以学习的,卷积操作能突破传统滤波器的限制,根据目标函数提取出想要的特征; 参数共享,降低了网络参数,提升训练效率。...平均池化则是取每个区域的均值,下图展示了两种池化的对比 全连接层 全连接层就是把卷积层和池化层的输出展开成一维形式,在后面接上与普通网络结构相同的回归网络或者分类网络,一般接在池化层后面,这一层的输出即为我们神经网络运行的结果

    60020

    【卷积神经网络-进化史】从LeNet到AlexNet一切的开始( LeNet)王者回归(AlexNet)Refenence

    随着ReLU和dropout的提出,以及GPU和大数据带来的历史机遇,CNN在2012年迎来了历史突破–AlexNet....C1, C3, C5 (卷积层) 卷积核在二维平面上平移,并且卷积核的每个元素与被卷积图像对应位置相乘,再求和。...C1有156个可训练参数(每个滤波器5*5=25个unit参数和一个bias参数,一共6个滤波器,共(5*5+1)*6 = 156个参数),共156 *(28*28) = 122,304个连接。...F6 (全连接层) F6是全连接层,类似MLP中的一个layer,共有84个神经元(为什么选这个数字?...图像数据 其他:GPU实现,LRN归一化层的使用 下面简单介绍一下AlexNet的一些细节: Data augmentation 有一种观点认为神经网络是靠数据喂出来的,若增加训练数据,则能够提升算法的准确率

    1.2K90

    卷积神经网络之 - Alexnet

    细化的结构图,来自互联网,侵删 与 LeNet 相比较 第⼀,与相对较小的 LeNet 相⽐, AlexNet 包含 8 层变换,其中有 5 层卷积和 2 层全连接隐藏层,以及 1 个全连接输出层。...第⼆层中的卷积窗⼝形状减⼩到 5×5 ,之后全采⽤ 3×3。此外,第⼀、第⼆和第五个卷积层之后都使用了窗⼝形状为 3×3 、步幅为 2 的最⼤池化层。...,使用填充为2来使得输入与输出的高和宽一致,且增大输出通道数 nn.Conv2d(96, 256, 5, 1, 2), nn.ReLU(),...# 前两个卷积层后不使用池化层来减小输入的高和宽 nn.Conv2d(256, 384, 3, 1, 1), nn.ReLU(),...)选择性地忽略训练中的单个神经元,避免模型的过拟合(也使用数据增强防止过拟合) 贡献 / 意义 AlexNet 跟 LeNet 结构类似,但使⽤了更多的卷积层和更⼤的参数空间来拟合⼤规模数据集 ImageNet

    39320

    【深度学习系列】用PaddlePaddle和Tensorflow实现经典CNN网络AlexNet

    卷积层:由96个feature map组成,每个feature map由11×11卷积核在stride=4下生成,输出feature map为55×55×48×2,其中55=(227-11)/4+1,48...C2卷积层 该层由:卷积操作 + Max Pooling + LRN组成  卷积层:由256个feature map组成,每个feature map由5×5卷积核在stride=1下生成,为使输入和卷积输出大小一致...C3卷积层 该层由:卷积操作 + LRN组成(注意,没有Pooling层)  输入为13×13×256,因为这一层两个GPU会做通信(途中虚线交叉部分)  卷积层:之后由384个feature map...C4卷积层 该层由:卷积操作 + LRN组成(注意,没有Pooling层)  卷积层:由384个feature map组成,每个feature map由3×3卷积核在stride=1下生成,为使输入和卷积输出大小一致...C5卷积层 该层由:卷积操作 + Max Pooling组成  卷积层:由256个feature map组成,每个feature map由3×3卷积核在stride=1下生成,为使输入和卷积输出大小一致

    89680
    领券