AI 科技评论按:卷积神经网络则是深度学习最具代表性的模型,在计算机视觉和自然语言翻译等领域有着极其广泛的应用。随着精度以及复杂度的逐步提升,卷积网络的推理效率问题越来越明显的成为制约其在实际应用中的瓶颈。 在近期 GAIR 大讲堂上,来自康奈尔大学的博士后黄高做了一场主题为「高效卷积神经网络的结构设计与探索」的技术分享,本文根据直播分享内容整理而成,更多细节推荐点击阅读原文观看视频回放。 黄高博士,现为美国康奈尔大学计算机系博士后,主要研究领域为深度神经网络的结构设计与优化算法,以及深度学习在计算机视觉与
AI 科技评论按:卷积神经网络则是深度学习最具代表性的模型,在计算机视觉和自然语言翻译等领域有着极其广泛的应用。随着精度以及复杂度的逐步提升,卷积网络的推理效率问题越来越明显的成为制约其在实际应用中的瓶颈。 黄高博士,现为美国康奈尔大学计算机系博士后,主要研究领域为深度神经网络的结构设计与优化算法,以及深度学习在计算机视觉与自然语言理解中的应用;获得北京航空航天大学学士学位,清华大学控制科学与工程博士学位。其博士论文被评为中国自动化学会优秀博士学位论文以及清华大学优秀博士论文一等奖。目前已发表学术论文20余
作者 | 卞书青 卷积神经网络(Convolutional Neural Network)最早是应用在计算机视觉当中,而如今CNN也早已应用于自然语言处理(Natural Language Processing)的各种任务。本文主要以CMU CS 11-747(Neural Networks for NLP)课程中Convolutional Networks for Text这一章节的内容作为主线进行讲解。 本文主要包括了对如下几块内容的讲解,第一部分是对于常见的语言模型在进行文本表示时遇到的问题以及引入卷
机器之心整理 机器之心编辑部 深度学习专项课程 Deeplearning.ai 中,也包含吴恩达和多位深度学习大牛的对话视频,之前 YouTube 上已经公开了他与 Geoffrey Hinton、Y
最近,这位AI领域的传奇大牛,接受了另一位大牛吴恩达的视频专访。在这次对话中,LeCun回顾了卷积神经网络、反向传播的历史,以及他如何从一个默默无闻的“法国小孩”,一步步走到今天。
距离上次写博客已经好久好久好久了,真是懈怠的生活节奏,整天混吃等死玩游戏,前些日子做毕业设计时总算又学了点新东西。学了一点深度学习和卷积神经网络的知识,附带着详细学习了一下前段时间我觉得比较有意思的图像风格转换。毕竟是初学,顺便把神经网络方面的知识也写在前面了,便于理解。若有不对的地方的话,希望指正。 主要参考的文献有《A Neural Algorithm of Artistic Style》和《Perceptual Losses for Real-Time Style Transfer a
论文名称:ACEnet: Anatomical Context-Encoding Network for Neuroanatomy Segmentation
最近的研究表明全局协方差池化(GCP)能够显著提升深层卷积神经网络在视觉分类任务中的性能。尽管如此,GCP在深层卷积神经网络中的作用机理尚未得到很好的研究。本文试图从优化的角度来理解GCP为深层卷积神经网络带来了哪些好处。详细地来说,本文从优化损失的利普希茨平滑性和梯度的可预测性两个方面探讨了GCP对深层卷积神经网络的影响,同时讨论了GCP与二阶优化之间的联系。更重要的是,本文的发现可以解释一些GCP以前尚未被认识到或充分探索的优点,包括显著加快了网络收敛,对图像破坏和扰动产生的失真样本具有较强的鲁棒性,对不同的视觉任务具有较好的泛化能力。通过利用不同网络架构在多种视觉任务上进行大量的实验,为本文的发现提供了有力的支持。
今天和大家分享一下自1998~2022年来,涌现出来的那些优秀的图像识别算法模型。
AI 研习社按:本文由图普科技编译自《Exemplar CNNs and Information Maximization》,雷锋网 AI 研习社独家首发。文中相关链接详见文末“阅读原文”。 前几周,我针对一篇题为《Unsupervised Learning by Predicting Noise》的论文写了自己的解读和看法。在文章中,我提到了解读这一方法的另一个角度——信息最大化,即寻找有限熵数据的非线性表征,同时最大程度地保留输入的信息。 在那篇文章中,我简单地提了一下“Exemplar-CNNs”的方
【新智元导读】在论文中,研究人员训练卷积神经网络来识别被应用到作为输入的图像上的二维旋转。从定性和定量两方面证明,这个看似简单的任务实际上为语义特征学习提供了非常强大的监督信号。 在过去的几年中,深度卷积神经网络(ConvNets)已经改变了计算机视觉的领域,这是由于它们具有学习高级语义图像特征的无与伦比的能力。然而,为了成功地学习这些特征,它们通常需要大量手动标记的数据,这既昂贵又不可实行。因此,无监督语义特征学习,即在不需要手动注释工作的情况下进行学习,对于现今成功获取大量可用的可视数据至关重要。 在我
最开始接触这个名词的时候,很长一段时间都将它看做一个高深莫测的神奇工具。竟然和大脑神经都有关系的算法,肯定很厉害!
文中的链接请点击网址:http://yerevann.com/a-guide-to-deep-learning/ 预备知识 你必须有大学数学知识。你可以在深度学习这本书的前几章中回顾这些概念: 深度学
这是卷积神经网络学习路线的第一篇文章,这篇文章主要为大家介绍卷积神经网络的组件以及直观的为大家解释一下卷积层是如何在图像中发挥作用的。
2019年3月27日 ——ACM 宣布,深度学习之父 Yoshua Bengio , Yann LeCun 以及 Geoffrey Hinton 获得了2018年的图灵奖,被称为“计算机领域的诺贝尔奖”。
原标题:独家 |《TensorFlow实战》作者黄文坚:四大经典CNN网络技术原理
【新智元导读】Uber近日一篇论文引起许多讨论:该论文称发现卷积神经网络一个引人注目的“失败”,并提出解决方案CoordConv。论文称CoordConv解决了坐标变换问题,具有更好的泛化能力,训练速度提高150倍,参数比卷积少10-100倍。当然,这是在极大的计算力(100个GPU)的基础上进行的。这真的是重要的结果吗?计算机视觉领域专家Filip Piekniewski对此提出质疑。
目前,作为深度学习的代表算法之一,卷积神经网络(Convolutional Neural Networks,CNN)在计算机视觉、分类等领域上,都取得了当前最好的效果。
本篇分享论文Graph Convolutional Network for Image Restoration: A Survey,由西工大&西澳大学&同济大学共同发布,第一篇图卷积网络在图像复原上综述(论文开源)。
大数据文摘作品,转载要求见文末 编译 | 宁云州、张礼俊、笪洁琼 每一次DeepMind发布一篇新论文,媒体都会疯狂地报道。其中不乏许多让人迷惑的术语。比如就有未来主义者这样报道: DeepMind开发了一个可以感知周围事物的神经网络。 这不仅仅误导人,还吓跑了那些没有接受过博士阶段的学习的人。所以在这篇文章里,我打算用尽量简单的语言来解释这个新的神经网络架构,这篇文章也要求一些神经网络方面的基础知识。 你可以在这里找到原论文:https://arxiv.org/pdf/1706.01427.pdf 什么是
前言:这个系列文章将会从经典的卷积神经网络历史开始,然后逐个讲解卷积神经网络结构,代码实现和优化方向。 (以下内容来翻译自斯坦福大学课程:http://cs231n.github.io/convolutional-networks/) 在卷积网络领域有几个有名字的体系结构。最常见的是: LeNet 卷积神经网络的第一批成功应用,是由 Yann LeCun 在 20 世纪 90 年代开发的。其中最着名的是用于识别邮政编码,数字等的LeNet架构。 AlexNet 首先让卷积神经网络在计算机视觉中流行的是由
本文整理了一些深度学习领域的专业名词及其简单释义,同时还附加了一些相关的论文或文章链接。本文编译自 wildml,作者仍在继续更新该表,编译如有错漏之处请指正。
机器之心报道 机器之心编辑部 1980 年,福岛邦彦首次使用卷积神经网络实现了模式识别,他被认为是真正的卷积神经网络发明者。 近日,福岛邦彦(Kunihiko Fukushima)获得 2021 年度鲍尔奖「Bower Award and Prize for Achievement in Science」的消息在学界引来关注。 获奖理由:通过发明第一个深度卷积神经网络「Neocognitron」将神经科学原理应用于工程的开创性研究,这是对人工智能发展的关键贡献。 鲍尔奖是美国奖金额度最高的科技奖,由富兰克
AI科技评论按:7月3日,国际人工智能及计算机视觉顶级会议ECCV 2018论文接收列表公布,今年的ECCV大会将在德国慕尼黑举行。据AI科技评论了解,上海交通大学SJTU-UCLA机器感知与推理联合研究中心有4篇论文入选,研究方向涉及自动驾驶、视频理解、视觉跟踪以及新型神经网络。本文对这几篇论文做了简介,更多详细内容可通过论文网盘链接下载查看。
AI 研习社按:7月3日,国际人工智能及计算机视觉顶级会议ECCV 2018论文接收列表公布,今年的ECCV大会将在德国慕尼黑举行。据AI科技评论了解,上海交通大学SJTU-UCLA机器感知与推理联合研究中心有4篇论文入选,研究方向涉及自动驾驶、视频理解、视觉跟踪以及新型神经网络。本文对这几篇论文做了简介,更多详细内容可通过论文网盘链接下载查看。
被誉为“计算机界诺贝尔奖”的图灵奖在27日公布了获奖人,ACM宣布,深度学习的三位创造者Yoshua Bengio、Yann LeCun以及Geoffrey Hinton获得了2018年的图灵奖,以表彰他们给人工智能带来的重大突破,这些突破使深度神经网络成为计算的关键组成部分。届时,这三位获奖人士将分享100万美元的奖金。
什么是神经网络?它是如何工作的?现在有哪些神经网络?有哪几种类型的神经网络可以用于自然语言处理?下面我们会一一解答这些问题。
卷积神经网络(Convolutional Neural Network,CNN)是一种深度神经网络模型,主要用于图像识别、语音识别和自然语言处理等任务。它通过卷积层、池化层和全连接层来实现特征提取和分类。
上周,Geoffrey Hinton和他的团队发表了两篇论文,介绍了一种基于所谓的capsules(胶囊)的全新类型的神经网络。除此之外,该团队还发布了一种叫做“dynamic routing bet
一、激活函数(AcTIvaTIon FuncTIon) 为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。常用的函数有sigmoid
2016年10月18日, 世界人工智能大会技术分论坛,特设“新智元智库院长圆桌会议”,重量级研究院院长 7 剑下天山,汇集了中国人工智能产学研三界最豪华院长阵容:美团技术学院院长刘江担任主持人,微软亚洲研究院常务副院长芮勇、360人工智能研究院院长颜水成、北京理工大学计算机学院副院长黄华、联想集团副总裁黄莹、Intel 中国研究院院长宋继强、新华网融媒体未来研究院院长杨溟联袂出席。 【新智元导读】这两天在斯坦福有场深度学习盛宴,Yoshua Bengio、吴恩达等人从不同角度讲解深度学习的前沿技术和挑战。本
Keras代码示例多达数百个。通常我们只需复制粘贴代码,而无需真正理解这些代码。通过学习本教程,您将搭建非常简单的构架,但是此过程会带给您些许好处:您将通过阅读 VGG*的论文原著学习使用 Keras 从零开始实现 VGG 网络。 我使用的术语是指由牛津大学计算机视觉组 (Visual Geometry Group, VGG)为ILSVRC-2014构建的网络构架。 那么,实现别人构建出来的结构有什么意义呢? 关键在于学习,通过完成本教程的学习,您将: 进一步了解 VGG 构架; 进一步了解卷积神经网
据官方公告介绍,因三位巨头(Hinton、Bengio、LeCun)在深度神经网络概念和工程上的突破,使得 DNN 成为计算的一个重要构成,从而成为 2018 年图灵奖得主。
图是现实世界中一类重要的数据结构,社交网络、通讯网络、交通网络、蛋白质作用网络等都可以由图的形式表达。图的生成与分类、社区发现、节点分类等任务也有着广泛应用。近几年图卷积神经网络把深度学习中卷积神经网络的思想用到图的学习上,达到了非常好的效果。
首先,来说一下卷积的概念,从数学角度来看,可以简单的认为卷积是一种数学运算,在通信领域,卷积也被应用在滤波上,因此通常将卷积和滤波同等看待,卷积核也经常被称为滤波器。
论文:Recent Advances in Deep Learning: An Overview
开篇的这张图代表ILSVRC历年的Top-5错误率,我会按照以上经典网络出现的时间顺序对他们进行介绍,同时穿插一些其他的经典CNN网络。
机器之心原创 作者:Shixin Gu 参与:Joni Chung、Xiang Chen、Nurhachu Null 最近,深度学习正随着训练过程简单化和准确化而变得越来越流行。对于旨在将研究转换为工业应用的研究者而言,这是一个至关重要的需求,例如机器人。 在本文中,作者提出了学习轻量级模型的一个非常新颖的方式,在实现精度超过 90% 的同时让训练速度快了一个数量级,让参数也少了一个数量级。作者主要使用了以下三个步骤: 1). 将预先训练好的模型适应于手头的任务中。 2). 在适应的模型中使用模型压缩技术来
导读: 深度学习(DeepLearning)尤其是卷积神经网络(CNN)作为近几年来模式识别中的研究重点,受到人们越来越多的关注,相关的参考文献也是层出不穷,连续几年都占据了CVPR的半壁江山,但是万变不离其宗,那些在深度学习发展过程中起到至关重要的推动作用的经典文献依然值得回味。这里依据时间线索,对CNN发展过程中出现的一些经典文献稍作总结,方便大家在研究CNN时追本溯源,在汲取最新成果的同时不忘经典。
深度学习(DeepLearning)尤其是卷积神经网络(CNN)作为近几年来模式识别中的研究重点,受到人们越来越多的关注,相关的参考文献也是层出不穷,连续几年都占据了CVPR的半壁江山,但是万变不离其宗,那些在深度学习发展过程中起到至关重要的推动作用的经典文献依然值得回味,这里依据时间线索,对CNN发展过程中出现的一些经典文献稍作总结,方便大家在研究CNN时追本溯源,在汲取最新成果的同时不忘经典。
机器之心整理 参与:蒋思源、李泽南、李亚洲 近几年,深度学习高速发展,出现了大量的新模型与架构,以至于我们无法理清网络类型之间的关系。在这篇文章中,中国香港科技大学(HKUST)助理教授金成勳总结了深度网络类型之间的谱系图,以便于我们索引不同类型网络的杰出研究成果。 金成勳在 GitHub 上梳理出的谱系图如下(点击图片放大查看),最后的蓝色字体部分是各分支内的杰出研究成果(附所有论文链接)。机器之心在此基础上对各个分支网络做了介绍、补充,希望对读者了解网络体系间的关联有所帮助。如有缺陷,欢迎
AI 科技评论按:CVPR 2018 将在美国盐湖城举行。腾讯优图实验室继在 ICCV 有 12 篇论文被收录(含 3 篇口头报告)后,在今年的 CVPR 2018 上有多篇论文被录用,也凭借这一点在雷锋网学术频道 AI 科技评论旗下数据库项目「AI 影响因子」中有相应展示。
人脸识别是近两年计算机视觉领域创业热潮中的一个热门方向,DeepID是这股热潮中不可忽视的一种人脸算法。针对DeepID的研发心得,人脸识别应用的现状、难点与未来,深度学习的实践经验等问题,CSDN记者近日采访了DeepID人脸算法发明者孙祎。 孙祎先后就读于清华大学、中国香港中文大学,2013年在CVPR上发表了用深度学习做面部特征点检测最早的论文。随后陆续发表了四篇在人脸识别领域有影响力的论文(ICCV’13,CVPR’14,NIPS’14,CVPR’15),使深度学习方法的人脸识别准确率远远超过
人脸识别是近两年计算机视觉领域创业热潮中的一个热门方向,DeepID是这股热潮中不可忽视的一种人脸算法。针对DeepID的研发心得,人脸识别应用的现状、难点与未来,深度学习的实践经验等问题,CSDN记者近日采访了DeepID人脸算法发明者孙祎。 孙祎先后就读于清华大学、香港中文大学,2013年在CVPR上发表了用深度学习做面部特征点检测最早的论文。随后陆续发表了四篇在人脸识别领域有影响力的论文(ICCV’13,CVPR’14,NIPS’14,CVPR’15),使深度学习方法的人脸识别准确率远远超过了人眼的准
作者最近看了一些图与图卷积神经网络的论文,深感其强大,但一些Survey或教程默认了读者对图神经网络背景知识的了解,对未学过信号处理的读者不太友好。同时,很多教程只讲是什么,不讲为什么,也没有梳理清楚不同网络结构的区别与设计初衷(Motivation)。
嗨!今天给大家分享一篇比较新的计算机视觉论文,题目是“ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders”。这篇论文由韩国科学技术院(KAIST)、Meta AI 和纽约大学的研究者合作发表,论文和代码的链接放在下方。
论文地址:https://arxiv.org/pdf/1807.08169v1.pdf
正文部分系《解析卷积神经网络——深度学习实践手册》基础理论篇部分,本次将详细介绍卷积神经网络中经典网络模型案例分析,包括Alex-Net、VGG-Nets、Network-In-Network、残差网络模型,更多详细内容以及注释可阅读书籍获取~
领取专属 10元无门槛券
手把手带您无忧上云