题图:annie-spratt-96525-unsplash
这是第 203 篇原创
建议阅读时间:3~5分钟
如果对您有帮助,欢迎点赞和转发。
优秀的知识分享氛围,需要你我共同努力。
0 前言
感谢粉丝:疯琴,以下分享是疯琴在学习《Python神经网络》时的笔记,总结得很棒,感谢疯琴的乐于分享精神,相信系列笔记一定会帮助到大家。
1 多一个隐藏层,识别率会提升吗?
Python神经网络编程一书中,分别对比了:
不同学习率;
不同隐藏层结点数;
不同训练世代的模型学习效果;
没有对比更多隐藏层的模型。于是,我自己添加了一层隐藏层的代码,得出的训练结果如下:
可见多一层隐藏层,学习效果不但没有提高,反而下降了。
相同训练世代,相同学习率的识别率,不同的隐藏层节点数与识别率关系:
10 * 10
关于这部分代码,请参考:
https://github.com/YngwieWang/NeuralNetwork/blob/master/annMnist_4layer.ipynb
2 增加样本数后,识别率会提升吗?
MNIST有6万条训练数据,书上为了获得更多的训练数据把每一条训练数据的图像分别顺时针、逆时针旋转了10度,这样就添加了两倍的训练样本。
使用这些数据,得出的结论如下:
当学习率为 0.2 时,加入旋转训练数据的模型,识别率反倒更低;
将学习率减小为 0.01 以后,增加旋转数据可以提高识别率;
通过学习率0.01和0.05两个模型进一步判断:学习率越小,增加旋转训练数据带来的学习率提高越多。
但,问题是很明显训练样本增多反而导致识别率下降。于是我怀疑我的代码有问题,下载了作者的代码跑,他是200个隐藏层结点、0.01的学习率跑了10个世代,github上他代码跑的结果是0.9754,我下载下来跑的是0.9779,然后我把我的代码改成一样的跑法用了2890.709569秒合48分钟,识别率是0.9777,看来代码没问题。
然后,我对比了一下10世代不用旋转数据的,识别率是0.9677,看来大样本要进行多世代的学习以后效果才显现,另外正如书上说的,样本量大了以后可以采用更小、更谨慎的学习步长,因此将学习率减少到0.01。
3 书中的一个问题
上一篇笔记中提到初始化权重的时候正态分布方差使用的是传入链接数也就是上一层结点数,而书上用的是当前结点数,这是个书中的错误。我在看github上的代码时,作者已经修正为上一层结点数了。
4 欢迎入群讨论
以上错误之处,有疑问的地方,或者待优化改进之处,欢迎公号内留言、微信群内提问作者。
微信群规定,群内严禁分享推文,只用于交流讨论。欢迎扫描群主微信,加入原创互助答疑微信群。请注明:加群
最近推文参考:
Python神经网络| 一篇很棒的实战笔记,附源码@all 邀你进 原创互助答疑 微信群探索下去,迎接未知的精彩。。。牢记初心,就是保持内心的几分纯真
领取专属 10元无门槛券
私享最新 技术干货