Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >卷积神经网络(三) ——inception网络、迁移学习

卷积神经网络(三) ——inception网络、迁移学习

作者头像
用户1327360
发布于 2018-03-29 09:00:16
发布于 2018-03-29 09:00:16
2.3K0
举报
文章被收录于专栏:决胜机器学习决胜机器学习

卷积神经网络(三)

——inception网络、迁移学习

(原创内容,转载请注明来源,谢谢)

一、Inception网络

1、简介

前面的文章中,有各种的卷积模型可以选择,而具体如何选择各种模型,实际上也可以让机器自动选择。

下面是一个前一层的输出结果,为28*28*192的数据,可以同时经过1*1、3*3、5*5、池化层四种处理,得到输出的结果,并且把输出结果进行拼接。

2、卷积优化

实际上在数据量大的时候,卷积的计算量也很大(虽然比全连接层已经好了很多)。28*28*192的数据,经过5*5的卷积,计算量约需要1.2亿次乘法。

下面考虑另一种方式,在5*5卷积之前,加入一个1*1卷积,先把上一层的输出进行压缩,然后再进行5*5的卷积,如下图所示,计算量约1240万次,是直接进行卷积的计算量的1/10。

这里的输入输出的维度都是一样的,只不过中间加了一层1*1的卷积,减少了计算量,这里的1*1卷积称为瓶颈层(bottleneck layer)。

经过研究人员的分析,这种瓶颈层虽然压缩了上一层的输出,但是不会造成很大的损失,而且减少了运算。

3、inception模块

因此,实际上的inception模块,就是同时进行了各种类型的卷积,包括池化,把计算结果进行信道的连接。

二、迁移学习

迁移学习,即把现有的神经网络,进行细微的改造训练,以得到自己想要的分类器的结果。

假设现有一个已经训练好的深度学习神经网络(例如GitHub开源等),现在需要一个三分类器。

1、训练数据量不足

当训练数据很少,则可以只改造现有网络的输出层,自己训练一个softmax,把前面所有的层当做黑盒,不进行训练,只使用训练结果。

为了计算速度更快,可以把前面的输出结果存储,作为输入层,这样只需要训练2层的神经网络即可。

2、训练数量较多

当训练数据较多,则除了替换softmax,还可以在softmax之前,加入几层的隐藏层,这样训练效果更好。

3、训练数据非常大量

当拥有非常大量的训练数据,则可以只把现有的网络当做初始化,而自己完全训练一个神经网络。

迁移学习的优点,在于可以合理利用现有的网络。当神经网络非常大型时,前面几层的训练通常是可以共用的,这也是迁移学习可以实现的原理。

对于计算机视觉,需要大量的数据,而且运算量很大,合理利用现有训练好的网络,进行迁移学习,可以提高工作效率。

三、数据扩充

数据扩充,这个之前提过,这里再简单说一下。

数据扩充的目的,是为了增加训练数据。常用的方法有:对图片进行镜像、随机修剪、旋转、扭曲、色彩转换(运用PCA增强法)等。

实际工作的时候,可以一边用程序处理图片,一边进行后续的训练。具体做法,可以用多线程,部分线程读取硬盘的图片,并进行上述的镜像、旋转等工作,处理完成一部分图片后,小批量的把图片传给训练参数的线程;另一部分线程,则读取图片,并且进行参数的训练。

——written by linhxx 2018.03.10

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-03-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 决胜机器学习 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
卷积神经网络图解_卷积神经网络分类
大家好,我是架构君,一个会写代码吟诗的架构师。今天说一说卷积神经网络图解_卷积神经网络分类,希望能够帮助大家进步!!!
Java架构师必看
2022/09/23
8230
卷积神经网络图解_卷积神经网络分类
2025最新卷积神经网络(CNN)详细介绍及其原理详解
本文详细介绍了卷积神经网络(CNN)的基础概念和工作原理,包括输入层、卷积层、池化层、全连接层和输出层的作用。通过举例和图解,阐述了CNN如何处理图像,提取特征,以及如何进行手写数字识别。此外,讨论了池化层的平移不变性和防止过拟合的重要性。 本文是关于卷积神经网络(CNN)技术教程,整体内容从基础概念到实际示例,逐层剖析 CNN 的各个组成部分与作用,并通过手写数字识别案例帮助大家更直观地理解其工作原理。
猫头虎
2025/06/08
1.6K0
2025最新卷积神经网络(CNN)详细介绍及其原理详解
深度学习——卷积神经网络 的经典网络(LeNet-5、AlexNet、ZFNet、VGG-16、GoogLeNet、ResNet)
一、CNN卷积神经网络的经典网络综述 下面图片参照博客:http://blog.csdn.net/cyh_24/article/details/51440344 二、LeNet-5网络 输入尺寸:32
10JQKA
2018/05/09
2.9K0
深度学习——卷积神经网络 的经典网络(LeNet-5、AlexNet、ZFNet、VGG-16、GoogLeNet、ResNet)
一文读懂卷积神经网络(CNN)
先明确一点就是,Deep Learning是全部深度学习算法的总称,CNN是深度学习算法在图像处理领域的一个应用。
昱良
2018/04/08
5.8K2
一文读懂卷积神经网络(CNN)
卷积神经网络(二) ——LetNet-5、AlexNet、VGG-16、残差网络
卷积神经网络(二) ——LetNet-5、AlexNet、VGG-16、残差网络 (原创内容,转载请注明来源,谢谢) 一、概述 本文主要介绍几种卷积网络模型,学习它们的结构、组成、特点等。 二、Let
用户1327360
2018/03/29
3K0
卷积神经网络(二) ——LetNet-5、AlexNet、VGG-16、残差网络
Keras迁移学习
简单来说迁移学习是把在ImageNet等大型数据集上训练好的CNN模型拿过来,经过简单的调整应用到自己的项目上去。
故事尾音
2019/12/18
1.1K0
Keras迁移学习
DeepLearning.ai学习笔记(四)卷积神经网络 -- week2深度卷积神经网络 实例探究
一、为什么要进行实例探究? 通过他人的实例可以更好的理解如何构建卷积神经网络,本周课程主要会介绍如下网络 LeNet-5 AlexNet VGG ResNet (有152层) Inception 二、
marsggbo
2018/01/23
6680
DeepLearning.ai学习笔记(四)卷积神经网络 -- week2深度卷积神经网络 实例探究
卷积神经网络学习笔记
企鹅号小编
2018/01/08
1.1K0
卷积神经网络学习笔记
04.卷积神经网络 W2.深度卷积网络:实例探究
1×1卷积层 给神经网络添加了一个非线性函数,从而减少或保持输入层中的通道数量不变,也可以增加通道数量
Michael阿明
2021/02/19
3110
深度学习教程 | 经典CNN网络实例详解
本系列为吴恩达老师《深度学习专项课程(Deep Learning Specialization)》学习与总结整理所得,对应的课程视频可以在这里查看。
ShowMeAI
2022/04/15
1.1K0
深度学习教程 | 经典CNN网络实例详解
从LeNet到GoogLeNet:逐层详解,看卷积神经网络的进化
深度学习的兴起使卷积神经网络在计算机视觉方面大放异彩,本文将按时间和创新点顺序介绍一系列网络结构:LeNet、AlexNet、VGGNet、InceptionNet 与 ResNet。
AI算法与图像处理
2020/02/12
3.9K0
从LeNet到GoogLeNet:逐层详解,看卷积神经网络的进化
深度卷积网络:实例探究
介绍几种经典的卷积神经网络结构,分别是LeNet、AlexNet、VGGNet。 LeNet-5 LeNet-5主要是针对灰度设计的,所以其输入较小,为32×32×1,其结构如下:
小飞侠xp
2018/08/29
3980
「卷积神经网络」深入浅出
六月份初开启了我神经网络相关内容的学习,眨眼间一个月过去了,是时候来总结下自己这个月的学习心得了。
曼亚灿
2023/07/24
7590
「卷积神经网络」深入浅出
神经网络体系搭建(三)——卷积神经网络
本篇是神经网络体系搭建的第三篇,解决体系搭建的卷积神经网络相关问题,详见神经网络体系搭建(序) 卷积神经网络(CNN) CNN是什么 卷积神经网络是一种空间上共享参数的神经网络。 为什么会有CNN 像
刘开心_1266679
2018/04/17
1.4K0
神经网络体系搭建(三)——卷积神经网络
必读 | 透析卷积神经网络,并分享9篇必读论文
本文共18000字,建议阅读18分钟。 本文为你介绍CNN整体系统架构及算法,并为你分享9篇必读论文。
智能算法
2019/07/12
9050
必读 | 透析卷积神经网络,并分享9篇必读论文
PyTorch实战:常用卷积神经网络搭建结构速览
PyTorch可以说是三大主流框架中最适合初学者学习的了,相较于其他主流框架,PyTorch的简单易用性使其成为初学者们的首选。这样我想要强调的一点是,框架可以类比为编程语言,仅为我们实现项目效果的工具,也就是我们造车使用的轮子,我们重点需要的是理解如何使用Torch去实现功能而不要过度在意轮子是要怎么做出来的,那样会牵扯我们太多学习时间。以后就出一系列专门细解深度学习框架的文章,但是那是较后期我们对深度学习的理论知识和实践操作都比较熟悉才好开始学习,现阶段我们最需要的是学会如何使用这些工具。
fanstuck
2024/12/29
3770
PyTorch实战:常用卷积神经网络搭建结构速览
深度学习系列(二)卷积神经网络模型(从LeNet-5到Inception V4)
卷积神经网络上目前深度学习应用在图像处理和自然语言处理的非常具有代表性的神经网络,其经历了不断的优化发展,性能越来越强。在图像处理、计算机视觉领域的应用包括图像特征提取、目标分类、目标分割、目标识别等。相比于传统的神经网络需要将一定的特征信息作为输入,卷积神经网络可以直接将原始图像或经过预处理之后的图像作为网络模型的输入,一个卷积神经网络通常包括输入输出层和多个隐藏层,隐藏层通常包括卷积层和RELU层(即激活函数)、池化层、全连接层和归一化层等。卷积神经网络中有三个基本的概念:局部感受野(Local Receptive Fields)、共享权值(Shared Weights)、池化(Pooling)。 (1)局部感受野。对于全连接式的神经网络,图像的每一个像素点连接到全连接的每一个神经元中,造成大量的计算量,而卷积神经网络则是把每一个卷积核的点只连接到图像的某个局部区域,从而减少参数量。 (2)共享权值。在卷积神经网络的卷积层中,神经元对应的权值是相同的,由于权值相同,因此可以减少训练的参数量。 (3)池化。类似于人的视觉观察物体原理,关注点由大到小,首先输入图像往往都比较大,在卷积过程中通过不断提取特征,并且经过池化操作来对图像进行缩小,同时提取低阶和高阶的抽象特征信息。 卷机的原理和各种卷积的变种在之前的文章里提过。(深度学习系列(一)常见的卷积类型)
Minerva
2020/05/21
1.2K0
卷积神经网络的网络结构_典型卷积神经网络结构
GoogLeNet原文地址:Going Deeper with Convolutions:https://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Szegedy_Going_Deeper_With_2015_CVPR_paper.pdf
全栈程序员站长
2022/09/21
5620
卷积神经网络的网络结构_典型卷积神经网络结构
卷积神经网络及经典模型
虽然图片识别对于人来说是一件轻松的事情,但是对于计算机来说,由于接受的是一串数字,对于同一个物体,表示这个物体的数字可能会有很大的不同,所以使用算法来实现这一任务还是有很多挑战的,具体来说:
Here_SDUT
2022/09/19
4.5K0
卷积神经网络及经典模型
卷积神经网络Inception Net
2014年,Google提出了包含Inception模块的网络结构,并命名为GoogLeNet[1],其中LeNet为致敬LeNet网络,GoogLeNet在当年的ILSVRC的分类任务上获得冠军。GoogLeNet经过多次的迭代,最初的版本也被称为Inception v1。Inception的名字也得益于NIN和盗梦空间“We need to go deeper”的启发。提高模型的表达能力,最有效的办法是增加模型的大小,包括了模型的深度和模型的宽度,但是一味的增大模型会出现以下的一些问题:
felixzhao
2022/11/13
8840
推荐阅读
相关推荐
卷积神经网络图解_卷积神经网络分类
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档