首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    干货 | 一文详解神经网络结构搜索(NAS)

    AI 科技评论按:近年来,深度学习的繁荣,尤其是神经网络的发展,颠覆了传统机器学习特征工程的时代,将人工智能的浪潮推到了历史最高点。然而,尽管各种神经网络模型层出不穷,但往往模型性能越高,对超参数的要求也越来越严格,稍有不同就无法复现论文的结果。而网络结构作为一种特殊的超参数,在深度学习整个环节中扮演着举足轻重的角色。在图像分类任务上大放异彩的ResNet、在机器翻译任务上称霸的Transformer等网络结构无一不来自专家的精心设计。这些精细的网络结构的背后是深刻的理论研究和大量广泛的实验,这无疑给人们带来了新的挑战。

    03

    CVPR 2021 | AttentiveNAS:通过注意力采样改善神经架构搜索

    神经结构搜索(NAS)在设计最先进的(SOTA)模型方面表现出了巨大的潜力,既准确又快速。近年来,BigNAS 等两阶段 NAS 将模型训练和搜索过程解耦,取得了良好的搜索效率。两阶段 NA S在训练过程中需要对搜索空间进行采样,这直接影响最终搜索模型的准确性。尽管均匀抽样的广泛应用是为了简化,但它不考虑模型性能的帕累托前沿,而帕累托前沿是搜索过程中的主要关注点,因此错过了进一步提高模型精度的机会。在这项工作中,我们建议关注于采样网络,以提高性能的帕累托。在训练过程中,本文还提出了有效识别帕累托网络的算法。无需额外的再训练或后处理,就可以通过广泛的 FLOPs 同时获得大量的网络。本文发现的模型家族 AttentiveNAS 模型在 ImageNet 上的准确率最高,从77.3%到80.7%,优于包括 BigNAS、Once-for-All networks 和 FBNetV3 在内的 SOTA 模型。并且本文还实现了 ImageNet 的精度为80.1%,只需491 MFLOPs。

    02

    万字解读商汤科技ICLR2019论文:随机神经网络结构搜索

    本文作者对NAS任务中强化学习的效率进行了深入思考,从理论上给出了NAS中强化学习收敛慢的原因。该论文提出了一种全新的经济、高效且自动化程度高的神经网络结构搜索(NAS)方法。他们通过深入分析NAS任务的MDP,提出了一个更高效的方法——随机神经网络结构搜索,重新建模了NAS问题。与基于强化学习的方法(ENAS)相比,SNAS的搜索优化可微分,搜索效率更高。与其他可微分的方法(DARTS)相比,SNAS直接优化NAS任务的目标函数,搜索结果偏差更小。此外,基于SNAS保持了随机性(stochasticity)的优势,该论文进一步提出同时优化网络损失函数的期望和网络正向时延的期望,自动生成硬件友好的稀疏网络。

    05

    首次基于神经架构搜索自动生成图卷积结构,刷新人体动作识别准确率 | AAAI 2020

    AI 前线导读: 由图卷积网络(GCN)推动的基于骨骼数据的人体动作识别由于其非欧氏结构数据具有强大的建模能力而备受关注。然而,许多现有的 GCN 方法都提供了预定义的图结构,这可能会丢失隐式的联合相关性。因此,探索更好的 GCN 架构则成为了亟需解决的问题。为了解决这些问题,本文的作者使用了神经结构搜索(NAS)的思路,提出了第一个可自动化设计的 GCN,该模型可用于基于骨骼数据的行为识别。在充分研究节点之间的时空相关性之后,作者通过提供多个动态图模块来丰富搜索空间。此外,作者引入了多跳模块,希望突破一阶逼近对表示能力的限制。相关论文已被 AAAI 2020 接收。本文是 AI 前线第 100 篇论文导读,我们将详细介绍这一搜索方法。

    02
    领券