前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >神经网络如何防止过拟合(总结)

神经网络如何防止过拟合(总结)

作者头像
ke1th
发布2018-01-02 11:55:28
6740
发布2018-01-02 11:55:28
举报
文章被收录于专栏:漫漫深度学习路

如何防止神经网络过拟合

  • 获取更多的数据
  • 选择正确的模型
  • 将多个模型平均
  • 贝叶斯方法

如何选择正确的模型

正则项

  • L1
  • L2
  • early stoping
  • 输入加噪声
  • 权重加噪声
  • dropout

L1:会将很多权重约束为0,稀疏特征。 L2:会使很多权重得到小值,这样就会使网络大部分工作在线性部分,减弱网络的能力。 early stoping:将权重初始化为小值,这时,只会用到神经网络的线性部分,网络能力比较弱。随着训练时间的增长,会越来越多的用到网络的非线性部分,网络的能力逐渐增强。这时观察验证集错误率,如果持续增加的话,就可以提早停止训练。 输入加噪声:相当于L2 权值加噪声:会使权值取极值

将多个模型平均

将多个模型bias小的模型平均,会得到一个variance小的模型。

贝叶斯方法

对权值进行采样,然后对采样的权值分别预测输出,然后平均输出值。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 如何防止神经网络过拟合
    • 如何选择正确的模型
      • 正则项
    • 将多个模型平均
      • 贝叶斯方法
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档