介绍 2 个非常接地气的 Github 开源项目,都是基于 TensorFlow 框架开发的,通过练习这些项目,能很快提升使用 TF 的能力,同时加深理解常用的神经网络结构。
Multi-language Char RNN in TensorFlow. You can use this code to generate English text, Chinese poetries and lyrics, Japanese text and text in other language.
一个基于最新版本TensorFlow的Char RNN实现。可以实现生成英文、写诗、歌词、小说、生成代码、生成日文等功能。本项目使用了 TF 中的 API: RNN, LSTM 网络,项目练习起到加深对这些网络的原理理解,同时,熟悉 TF 中训练网络的套路,对于找工作很有好处。如下为实现的诗歌,每行字数不同。
我知道 我的世界 一种解 我一直实现 语不是我 有什么(客) 我只是一口 我想想我不来 你的微笑 我说 你我你的你 只能有我 一个梦的 我说的我的 我不能再想 我的爱的手 一点有美 我们 你的我 你不会再会爱不到
还支持其他多种语言输出。项目的 Github 地址:
https://github.com/hzy46/Char-RNN-TensorFlow
该Repo内容为知乎专栏《机器不学习》的源代码,专栏地址https://zhuanlan.zhihu.com/zhaoyeyu,代码框架为:TensorFlow. 项目地址为:https://github.com/NELSONZHAO/zhihu
基于RNN(LSTM)对《安娜卡列尼娜》英文文本的学习,实现一个字符级别的生成器。
文章地址:《安娜卡列尼娜》文本生成——利用TensorFlow构建LSTM模型
实现skip-gram算法的Word2Vec,基于对英文语料的训练,模型学的各个单词的嵌入向量。
文章地址:基于TensorFlow实现Skip-Gram模型
基于RNN实现歌词生成器。
基于RNN Encoder-Decoder结构的Seq2Seq模型,实现对一个单词中字母的排序。
文章地址:从Encoder到Decoder实现Seq2Seq模型
基于MNIST手写数据集训练了一个自编码器,并在此基础上增加卷积层实现一个卷积自编码器,从而实现对图像的降噪。
文章地址:利用卷积自编码器对图片进行降噪
对Kaggle上CIFAR图像分类比赛的一个实现,分别对比了KNN和卷积神经网络在数据上的表现效果。
文章地址:利用卷积神经网络处理CIFAR图像分类
基于MNIST手写数据集,训练了一个隐层为Leaky ReLU的生成对抗网络,让模型学会自己生成手写数字。
文章地址:生成对抗网络(GAN)之MNIST数据生成
基于MNIST数据集训练了一个DCGAN,加入了Batch normalization,加速模型收敛并提升新能。
文章地址:深度卷积GAN之图像生成
基于CIFAR数据集中的马的图像训练一个DCGAN生成马的图像。
该部分代码基于MNIST手写数据集构造了一个四层的全连接层神经网络。通过改变不同参数来测试BN对于模型性能的影响。同时利用TensorFlow实现底层的batch normalization。
文章地址:Batch Normalization原理与实战
这是一篇 CSDN 上超过80000+,点赞 70+ 的文章,它详细地对TF 中常用的概念和方法进行了整理,文章参考地址,结合着 2 个项目,更快捷地熟悉 TensorFlow 下的编程,加快对深度学习的理解和应用。
https://blog.csdn.net/lenbow/article/details/52152766
点击以下标题查看相关内容:
本文分享自 程序员郭震zhenguo 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!