前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >用TensorFlow和TensorBoard从零开始构建ConvNet(CNN)

用TensorFlow和TensorBoard从零开始构建ConvNet(CNN)

作者头像
IT派
发布于 2018-03-28 10:31:55
发布于 2018-03-28 10:31:55
1.2K00
代码可运行
举报
文章被收录于专栏:IT派IT派
运行总次数:0
代码可运行

摘要: Tensorflow作为当下最流行的深度学习框架,实现ConvNet(CNN)自然是轻而易举,但是本文创造性的使用的TensorBoard来图形化展示CNN实现过程,极大的提高了研究者的对自己模型的管理能力。

首先了解TensorBoard是什么?解开你心中的疑惑!

在本教程中,我将介绍如何使用TensorFlow,从头开始构建卷积神经网络,并使用TensorBoard可视化我们的图形及神经网络性能。如果您不了解完全神经网络的一些基础知识,我强烈建议您首先看另一个教程关于TensorFlow。在这篇文章中,我也把卷积神经网络的每个步骤讲的都很仔细,所以你可以在文章中完全了解每个步骤发生了什么。未来您可以看到每一层的卷积,并使用它们进行自己的网络模型构建,所以我从头开始构建该模型。我只会强调主要的代码,不过你可以在GitHub上下载源码。

1.选择数据集

一开始,我先要选择图像数据集。我决定用牛津大学的宠物数据集。我选择了这个数据集的原因很简单:标签非常简单,训练数据也不错,而且还有一些边框。另一个我认为对于创建第一个模型是非常好的数据集是在Kaggle上发现的辛普森数据集。

2.选择一个模型

第二步,必须决定我们的卷积神经网络的模型。一些非常受欢迎的型号例如:GoogLeNet或VGG16,它们都具有多个卷积,可以用于检测1000种数据集imagenet中的图像。我决定一个更简单的卷积网络:

我们先简要的分解这个模型,它以一个224x224x3的图像开始,它根据前三个通道卷积到32个特征图(Feature Map)。我们将这组32个特征图集合到另外32个特征中。然后将其汇总到112x112x32图像中,我们将卷入64个特征图,然后再次进行二次,最后汇总为56x56x64。然后将这个最终合并的层的每个单元完全连接到一个512个的神经元中,然后基于类的数量最后放入softmax层。整个过程就是如此,如果你对上述有一些疑问,可以进一步与我交流。

3.处理和构建数据集:

首先,我们要加载我们的依赖项,其中包括我所调用的功能函数imFunctions来处理图像数据。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import imFunctions as imf
import tensorflow as tf
import scipy.ndimage
from scipy.misc import imsave
import matplotlib.pyplot as plt
import numpy as np

我们可以使用imFunctions提供的下载的方式提取图像。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
imf.downloadImages('annotations.tar.gz', 19173078)imf.downloadImages('images.tar.gz', 791918971)imf.maybeExtract('annotations.tar.gz')imf.maybeExtract('images.tar.gz')

然后我们可以将图像分成不同的文件夹,其中包括训练文件夹和测试文件夹。sortImages函数中的数字表示的是您想从训练数据中分离出测试数据的百分比。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
imf.sortImages(0.15)

然后,我们可以使用相应的一个热矢量(one-hot)将我们的数据集构建成一个numpy数组,以表示我们的类。该函数将会表现您要让神经网络做那些事,由于我有限的GPU RAM(3GB),我选择了一个非常小的数据集,仅仅试图区分两种狗:来自萨摩耶的ShibaInu。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
train_x, train_y, test_x, test_y, classes, classLabels = imf.buildDataset()

4.如何卷积实现功能

现在我们有一个数据集可以使用,其次就是了解卷积如何工作。在跳入彩色卷积滤波器之前,让我们来看一下灰度图。让我们制作一个应用四个不同特征图的7x7滤镜。TensorFlow的conv2d功能相当简单,它包含四个变量:输入,过滤器,步幅和填充。在TensorFlow官方网站上,他们描述的conv2d功能如下:

1.计算给定4-D输入和滤波张量的2-D卷积。

2.给定一个形状为[batch,in_height,in_width,in_channels]的输入张量以及形状为[filter_height,filter_width,in_channels,out_channels]的过滤器/内核张量。

由于我们正在使用灰度图,所以in_channels是1,因为我们使用了四个过滤器,所以我们的out_channels将是4。我们将以下四个过滤器/内核应用到我们的一个图像中:

让我们看看这个过滤器如何处理我们的灰度图像输入:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
gray = np.mean(image,-1)X = tf.placeholder(tf.float32, shape=(None, 224, 224, 1))conv = tf.nn.conv2d(X, filters, [1,1,1,1], padding="SAME")test = tf.Session()test.run(tf.global_variables_initializer())filteredImage = test.run(conv, feed_dict={X: gray.reshape(1,224,224,1)})tf.reset_default_graph()

这将返回一个4d张量(1,224,224,4),我们可以使用它来可视化四个过滤器:

我们可以看到过滤器的内核卷积非常强大。为了打破它,我们的7x7内核一次跨越图像像素的49个步长,然后将每个像素的值乘以内核值,然后将所有49个值加在一起,生成一个像素。

现在,本质上,大多数卷积神经网络只包括卷积和池化(pooling)。最常见的是3x3内核过滤器用于卷积。特别是步长为2×2,内核大小为2×2只是基于内核中最大像素值来减少图像大小的一种有效的方法。这是一个2x2内核的基本示例,在两个维度上都具有步长2:

现在,对于两个conv2d和最大池化,有两个选项可用于填充:“VALID”:这将缩小输入和“SAME”:这将通过在输入边缘添加来保持输入大小。这是一个具有3x3内核的最大池的示例,步长为1x1以比较填充选项:

5.创建ConvNet

我们已经介绍了基础知识,那么让我们开始构建我们的卷积神经网络模型。我们可以从占位符开始。X将是我们的输入占位符,我们将把图像提供给X,Y_将成为一组图像的类。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
X = tf.placeholder(tf.float32, shape=(None, 224, 224, 3))Y_ = tf.placeholder(tf.float32, [None, classes])keepRate1 = tf.placeholder(tf.float32)keepRate2 = tf.placeholder(tf.float32)

范围(scope)对于在TensorBoard中的图形可视化非常有用,因为它们将所有内容分组成一个可扩展对象。我们创建了第一套内核大小为3x3的过滤器,它采用三个通道并输出32个过滤器。这意味着对于32个滤波器中的每一个,R、G和B通道将有3x3的内核权重。另外非常重要的一点是,我们的过滤器的权重值是使用截断的正常值进行初始化的,所以我们有多个随机过滤器,这意味着TensorFlow将适应我们的模型。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# CONVOLUTION 1 - 1
with tf.name_scope('conv1_1'):
    filter1_1 = tf.Variable(tf.truncated_normal([3, 3, 3, 32], dtype=tf.float32,stddev=1e-1), name='weights1_1')
    stride = [1,1,1,1]
    conv = tf.nn.conv2d(X, filter1_1, stride, padding='SAME')
    biases = tf.Variable(tf.constant(0.0, shape=[32], dtype=tf.float32),trainable=True, name='biases1_1')
    out = tf.nn.bias_add(conv, biases)
    conv1_1 = tf.nn.relu(out)

在我们第一次卷积conv1_1结束时,我们通过应用relu来完成,通过将每个负数分配给零来作为阈值。然后我们将这32个特征集合到另外32个特征中。您可以看到第一个卷积层的输出将作为conv2d的输入。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# CONVOLUTION 1 - 2
with tf.name_scope('conv1_2'):
    filter1_2 = tf.Variable(tf.truncated_normal([3, 3, 32, 32], dtype=tf.float32,stddev=1e-1), name='weights1_2')
    conv = tf.nn.conv2d(conv1_1, filter1_2, [1,1,1,1], padding='SAME')
    biases = tf.Variable(tf.constant(0.0, shape=[32], dtype=tf.float32),trainable=True, name='biases1_2')
    out = tf.nn.bias_add(conv, biases)
    conv1_2 = tf.nn.relu(out)

然后我们将图像缩小一半。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# POOL 1with tf.name_scope('pool1'):
    pool1_1 = tf.nn.max_pool(conv1_2,
                             ksize=[1, 2, 2, 1],
                             strides=[1, 2, 2, 1],
                             padding='SAME',
                             name='pool1_1')
    pool1_1_drop = tf.nn.dropout(pool1_1, keepRate1)

最后一部分涉及在池化层上使用dropout(稍后会详细介绍)。然后我们再进行两次卷积,共有64个特征和另一个池。请注意,第一次卷积必须将先前的32个特征通道转换为64。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# CONVOLUTION 2 - 1with tf.name_scope('conv2_1'):
    filter2_1 = tf.Variable(tf.truncated_normal([3, 3, 32, 64], dtype=tf.float32,stddev=1e-1), name='weights2_1')
    conv = tf.nn.conv2d(pool1_1_drop, filter2_1, [1, 1, 1, 1], padding='SAME')
    biases = tf.Variable(tf.constant(0.0, shape=[64], dtype=tf.float32),trainable=True, name='biases2_1')
    out = tf.nn.bias_add(conv, biases)
    conv2_1 = tf.nn.relu(out)# CONVOLUTION 2 - 2with tf.name_scope('conv2_2'):
    filter2_2 = tf.Variable(tf.truncated_normal([3, 3, 64, 64], dtype=tf.float32,stddev=1e-1), name='weights2_2')
    conv = tf.nn.conv2d(conv2_1, filter2_2, [1, 1, 1, 1], padding='SAME')
    biases = tf.Variable(tf.constant(0.0, shape=[64], dtype=tf.float32),trainable=True, name='biases2_2')
    out = tf.nn.bias_add(conv, biases)
    conv2_2 = tf.nn.relu(out)  # POOL 2with tf.name_scope('pool2'):
    pool2_1 = tf.nn.max_pool(conv2_2,
                             ksize=[1, 2, 2, 1],
                             strides=[1, 2, 2, 1],
                             padding='SAME',
                             name='pool2_1')
    pool2_1_drop = tf.nn.dropout(pool2_1, keepRate1)

接下来,我们创建一个512个神经元完全连接的神经网络层,它将为56x56x64 pool2_1层的每个像素设置一个权重连接。这将是超过1亿不同的权重值!为了计算我们的完全连接的网络,我们必须将输入转化一维,然后我们可以乘以我们的权重并加上我们的偏差(Bias)。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
with tf.name_scope('fc1') as scope:
    shape = int(np.prod(pool2_1_drop.get_shape()[1:]))
    fc1w = tf.Variable(tf.truncated_normal([shape, 512], dtype=tf.float32,stddev=1e-1), name='weights3_1')
    fc1b = tf.Variable(tf.constant(1.0, shape=[512], dtype=tf.float32),trainable=True, name='biases3_1')
    pool2_flat = tf.reshape(pool2_1_drop, [-1, shape])
    out = tf.nn.bias_add(tf.matmul(pool2_flat, fc1w), fc1b)
    fc1 = tf.nn.relu(out)
    fc1_drop = tf.nn.dropout(fc1, keepRate2)

最后,我们的softmax与其相关的权重和偏差,最后是我们的输出Y。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#FULLY CONNECTED 3 & SOFTMAX OUTPUTwith tf.name_scope('softmax') as scope:
    fc2w = tf.Variable(tf.truncated_normal([512, classes], dtype=tf.float32,stddev=1e-1), name='weights3_2')
    fc2b = tf.Variable(tf.constant(1.0, shape=[classes], dtype=tf.float32),trainable=True, name='biases3_2')
    Ylogits = tf.nn.bias_add(tf.matmul(fc1_drop, fc2w), fc2b)
    Y = tf.nn.softmax(Ylogits)

6.创建损失函数和优化器:

现在,我们可以开始开发我们的模型的训练部分。首先,我们必须决定训练批量大小;我自己的情况是不能使用超过10,因为GPU内存的缘故。那么我们必须决定训练次数,算法将分批地遍历所有训练数据的次数,最后是我们的学习速率α。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
numEpochs = 400
batchSize = 10
alpha = 1e-5

然后,我们为我们的交叉熵,精度检查器和反向传播优化器创建了一些范围。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
with tf.name_scope('cross_entropy'):
    cross_entropy = tf.nn.softmax_cross_entropy_with_logits(logits=Ylogits, labels=Y_)
    loss = tf.reduce_mean(cross_entropy)
with tf.name_scope('accuracy'):
    correct_prediction = tf.equal(tf.argmax(Y, 1), tf.argmax(Y_, 1))
    accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
with tf.name_scope('train'):
    train_step = tf.train.AdamOptimizer(learning_rate=alpha).minimize(loss)

然后,我们可以创建我们的会话(session)并初始化所有的变量。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sess = tf.Session()
init = tf.global_variables_initializer()
sess.run(init)

7. 准备TensorBoard

现在,我们想使用TensorBoard,这样我们可以看到我们的分类器在做什么。我们将创建plot模块:一个用于我们的训练集,一个用于我们的测试集。我们可以通过使用add_graph功能可视化我们的图形网络。我们将使用汇总标量(scalar)来衡量我们的损失值和准确度,并将我们的汇总合并在一起,所以我们只需要调用write_op记录我们的标量。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
writer_1 = tf.summary.FileWriter("/tmp/cnn/train")writer_2 = tf.summary.FileWriter("/tmp/cnn/test")writer_1.add_graph(sess.graph)tf.summary.scalar('Loss', loss)tf.summary.scalar('Accuracy', accuracy)tf.summary.histogram("weights1_1", filter1_1)write_op = tf.summary.merge_all()

8.训练模型

然后我们可以对我们的模型进行评估和训练。我们不想在每个时间步骤中总结损失和准确性,因为这将大大减慢分类器的速度。所以相反,我们每五个步骤记录一次。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
steps = int(train_x.shape[0]/batchSize)for i in range(numEpochs):
    accHist = []
    accHist2 = []
    train_x, train_y = imf.shuffle(train_x, train_y)
    for ii in range(steps):        #Calculate our current step
        step = i * steps + ii
        acc = sess.run([accuracy], feed_dict={X: train_x[(ii*batchSize):((ii+1)*batchSize),:,:,:], Y_: train_y[(ii*batchSize):((ii+1)*batchSize)], keepRate1: 1, keepRate2: 1})
        accHist.append(acc)        
        if step % 5 == 0:            # Get Train Summary for one batch and add summary to TensorBoard
            summary = sess.run(write_op, feed_dict={X: train_x[(ii*batchSize):((ii+1)*batchSize),:,:,:], Y_: train_y[(ii*batchSize):((ii+1)*batchSize)], keepRate1: 1, keepRate2: 1})
            writer_1.add_summary(summary, step)
            writer_1.flush()
            
            # Get Test Summary on random 10 test images and add summary to TensorBoard
            test_x, test_y = imf.shuffle(test_x, test_y)
            summary = sess.run(write_op, feed_dict={X: test_x[0:10,:,:,:], Y_: test_y[0:10], keepRate1: 1, keepRate2: 1})
            writer_2.add_summary(summary, step)
            writer_2.flush()
 sess.run(train_step, feed_dict={X: train_x[(ii*batchSize):((ii+1)*batchSize),:,:,:], Y_: train_y[(ii*batchSize):((ii+1)*batchSize)], keepRate1: 0.2, keepRate2: 0.5})

9.可视化

当训练的时候,我们来看看TensorBoard的结果,在终端上激活TensorBoard。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
tensorboard --logdir="/tmp/cnn/"

然后我们可以将我们的网页浏览器指向默认的TensorBoard地址http://0.0.0.0/6006。我们先看看我们的图形化模型。正如你所看到的,通过使用范围(scope),我们可视化了一个漂亮的干净版本的图形。

10.性能测量

我们来看看我们准确度和损失的标量历史:

你可能说我们有一个很严峻的问题。对于我们的培训数据,分类器获得了100%的准确性和0损失,但是我们的测试数据最多只能达到80%,并且会有很大的损失。这是一个常见的现象原,因包括训练数据不足或神经元太多。

我们可以通过调整、缩放和旋转训练数据以此来获得更多的训练数据,但是我认为更容易的方法是添加dropout功能到我们的池化层和完全连接层的输出。这将使每个训练步骤在每一层中随机地完全删除或退出一部分神经元。这将使我们的分类器一次只训练一小组的神经元,而全部的神经元。这使得专门神经元从事特定任务,而不是将所有神经元泛化在一起,同时进行某项工作。减少80%的卷积层和50%的完全连接的层可能会产生一些惊人的结果。

通过drop-out神经元,我们可以在测试数据上实现90%以下的性能,几乎提高了10%!但也有一个缺点,分类器花了大约6倍的时间来训练。

11.可视化进化过滤器

为了增加一些乐趣,每50个训练步骤,我通过一个过滤器传递了一个图像,并将过滤器的权重变化gif化。这出现了一些非常酷的效果和一些非常好的洞察例如:观察如何卷积网络的工作。以下是两个过滤器conv1_2:

您可以看到加权初始化显示了大量图像,但权重随着时间的推移而变化,他们更加专注于检测某些边缘。令我吃惊的是,我发现第一个卷积内核filter1_1几乎没有改变。为了进一步了解网络,这里是conv2_2,您可以看到它开始检测更多的抽象的泛化功能。

总而言之,让我印象深刻的是,我能够使用少于400个训练图像训练几乎90%精度的模型。我相信有更多的训练数据及更多的调整超参数,我可以取得更好的结果。

最后,重要的是要记住,在制作具有少量数据的分类器时,更容易的方法是采用已经在具有多个GPU(例如GoogLeNet或VGG16)的巨大数据集上进行训练的模型和权重,并在最后一层用自己的类替换它们的类。那么,这就要求所有的分类器都要做的是学习最后一层的权重,并使用预先存在的训练过的权重。最后希望你能在本文中学到一些知识,have fun!

原文:https://www.oreilly.com/ideas/visualizing-convolutional-neural-networks?spm=5176.100239.blogcont210392.27.Yseo7S

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-09-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 IT派 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
tensorflow学习笔记_03
上一篇使用tensorflow完成一个卷积神经网络,但当时写的代码虽然可以工作,还比较零乱,并且并没有经过参数调优,最终得到的模型准确率也并不是很高。本周花了些时间将代码进行了重构,并且对某些地方进行了调整了,目前得到的准确率就比较高了。 神经网络 神经网络的概念 神经网络只是一个很酷的名词,媒体用来夸大其词的,其实没有生物神经那么高级。神经网络归根结底就是计算图谱,或者说数据流图谱。其实就是一串链在一起的函数,这些函数的操作对象是各种维度的矩阵。 下面这段我总结出来的话很重要,很重要,很重要。 在tens
jeremyxu
2018/05/10
6600
【TensorFlow】TensorFlow 的卷积神经网络 CNN - TensorBoard版
本文介绍了如何使用 TensorFlow 实现卷积神经网络(CNN)用于图像分类。首先介绍了 CNN 的基本结构和原理,然后通过一个具体的例子展示了如何使用 TensorFlow 实现 CNN。在实现过程中,作者介绍了如何定义模型、如何添加数据集、如何训练模型、如何评估模型的性能、如何保存模型、如何加载模型、如何可视化模型训练过程以及模型参数。最后,作者还介绍了一些高级功能,如使用 tf.summary.FileWriter() 将操作记录到 TensorBoard 中,以及使用 tf.train.Saver() 保存和加载模型。通过本文的学习,读者可以掌握如何使用 TensorFlow 实现 CNN,并能够使用 TensorBoard 对模型进行可视化和调试。
Alan Lee
2018/01/08
1.3K0
【TensorFlow】TensorFlow 的卷积神经网络 CNN - TensorBoard版
【深度学习系列】用PaddlePaddle和Tensorflow实现经典CNN网络AlexNet
上周我们用PaddlePaddle和Tensorflow实现了图像分类,分别用自己手写的一个简单的CNN网络simple_cnn和LeNet-5的CNN网络识别cifar-10数据集。在上周的实验表现中,经过200次迭代后的LeNet-5的准确率为60%左右,这个结果差强人意,毕竟是二十年前写的网络结构,结果简单,层数也很少,这一节中我们讲讲在2012年的Image比赛中大放异彩的AlexNet,并用AlexNet对cifar-10数据进行分类,对比上周的LeNet-5的效果。 什么是AlexNet? A
Charlotte77
2018/01/15
9150
【深度学习系列】用PaddlePaddle和Tensorflow实现经典CNN网络AlexNet
【长文详解】卷积神经网络常见架构AlexNet、ZFNet、VGGNet、GoogleNet和ResNet模型的理论与实践
目前的常见的卷积网络结构有AlexNet、ZF Net、VGGNet、Inception、ResNet等等,接下来我们对这些架构一一详解。
zenRRan
2018/10/09
2.1K0
【长文详解】卷积神经网络常见架构AlexNet、ZFNet、VGGNet、GoogleNet和ResNet模型的理论与实践
(二)Tensorflow搭建卷积神经网络实现MNIST手写字体识别及预测
1 搭建卷积神经网络 1.0 网络结构 [图1.0 卷积网络结构 ] 1.2 网络分析 序号 网络层 描述 1 卷积层 一张原始图像(28, 28, 1),batch=1,经过卷积处理,得到图像特征(28, 28, 32) 2 下采样 即池化层,最大池化后图像特征(14, 14, 32) 3 卷积层 将池化特征(14, 14, 32)卷积处理后,得到图像特征(14, 14, 64) 4 下采样 最大池化,得到图像特征(7, 7, 64) 5 全连接层 将上一层即池化层的图像特征经过矩阵内积计算,拉成一个向量
xdq101
2019/06/02
7890
(二)Tensorflow搭建卷积神经网络实现MNIST手写字体识别及预测
【TensorFlow】TensorFlow 的卷积神经网络 CNN - 无TensorBoard版
本文介绍了如何使用深度学习实现图像分类,并通过CIFAR-10数据集进行了实验。首先,作者介绍了如何使用卷积神经网络(CNN)进行图像分类,并给出了详细的理论推导。其次,作者介绍了在CIFAR-10数据集上如何进行数据扩充,并给出了具体的代码实现。最后,作者对实验结果进行了分析,并给出了在实验过程中需要注意的一些问题。
Alan Lee
2018/01/08
9000
【TensorFlow】TensorFlow 的卷积神经网络 CNN - 无TensorBoard版
CNN
32x32x1(f=5,s=1)—>28x28x6(k=2,s=2)—>14x14x6(f=5,s=1)—>10x10x16(k=2,s=2)—>5x5x16—>Fc(120)—>Fc(84)—>10
用户4880117
2019/03/18
1.1K0
深度学习之卷积神经网络(CNN)详解与代码实现(二)
本文系作者原创,转载请注明出处:https://www.cnblogs.com/further-further-further/p/10737065.html
用户7225427
2020/09/03
6310
深度学习之卷积神经网络(CNN)详解与代码实现(二)
tensorflow
此篇笔记参考来源为《莫烦Python》 tensorflow安装 在命令行模式下进入到python安装目录中的Scripts下,例如我的安装路径为:D:\Program Files (x86)\Python\Scripts 安装CPU版本的: pip3 install --upgrade tensorflow GPU版本: pip3 install --upgrade tensorflow-gpu 心酸啊,一开始使用这种方法超时了,想想就试着装一个anaconda吧,成功安装好了之后,但是IDLE中导入错误
闪电gogogo
2018/05/28
9090
TensorFlow可视化之TensorBoard快速上手
本文转载自:David 9的博客 — 不怕"过拟合" 我们都知道tensorflow训练一般分两步走:第一步构建流图graph,第二步让流图真正“流”起来(即进行流图训练)。 tensorboard会对这两步都进行跟踪,启动这种跟踪你必须先初始化一个tensorflow的log文件writer对象: writer = tf.train.SummaryWriter(logs_path, graph=tf.get_default_graph()) 然后启动tensorboard服务: [root@c031
崔庆才
2018/06/25
5680
TensorFlow从1到2 - 5 - 非专家莫入!TensorFlow实现CNN
当看到本篇时,根据TensorFlow官方标准《Deep MNIST for Experts》,你已经达到Expert Level,要恭喜了。 且不说是否夸大其词,换一种角度,假如能乘坐时光机仅往回飞5年,借此CNN实现,你也能在ImageNet上叱咤风云,战无不胜。就算飞不回去,它在今天依然是大杀伤力武器,大批大批老算法等着你去枪毙,大片大片垂直领域换代产品等着你去落地。这还不够么? 上一篇4 深入拆解CNN架构准备好了CNN的理论基础,本篇从代码层面,来看看TensorFlow如何搞定CNN,使识别精
袁承兴
2018/04/11
2.5K0
TensorFlow从1到2 - 5 - 非专家莫入!TensorFlow实现CNN
【Kaggle竞赛】AlexNet模型定义及实现
在图像识别/目标检测领域,基本上CNN的天下,从基础的AlexNet,再到后面更深的GoogleNet、VGGNet等,再到收敛速度更快、泛化性更强ResNet等残差网络,从2012年到现在CNN网络在图像识别/目标检测领域可谓是一个很好的方法。
嵌入式视觉
2022/09/05
3740
【Kaggle竞赛】AlexNet模型定义及实现
美还是丑?这有一个CNN开发的颜值评分器 | 实战
在人工智能的发展越来越火热的今天,其中智能应用也在伴随着我们的生活,其中最具有代表性的便是图像识别,并且其中的应用比比皆是,如车站的人脸识别系统,交通的智能监控车牌号系统等等。而卷积神经网络作为图像识别的首选算法,对于图像的特征提取具有很好的效果,而TensorFlow作为Google的开源框架具有很好的结构化特征,而本篇文章将利用卷积神经网络算法对图像识别进行应用,开发出颜值评分器的功能。
AI科技大本营
2019/11/12
1.2K0
[TensorFlow深度学习深入]实战三·分别使用DNN,CNN与RNN(LSTM)做文本情感分析(机器如何读懂人心)
不太清楚的可以回顾我们之前的博文。 使用了全连接,卷积神经网络与循环神经网络分别实现了. 代码部分: 1.全连接实现
小宋是呢
2019/06/27
6370
VggNet10模型的cifar10深度学习训练
先放些链接,cifar10的数据集的下载地址:http://www.cs.toronto.edu/~kriz/cifar.html
全栈程序员站长
2022/09/27
5130
【TensorFlow篇】--Tensorflow框架可视化之Tensorboard
TensorBoard是tensorFlow中的可视化界面,可以清楚的看到数据的流向以及各种参数的变化,本文基于一个案例讲解TensorBoard的用法。
LhWorld哥陪你聊算法
2018/09/13
6670
【TensorFlow篇】--Tensorflow框架可视化之Tensorboard
TensorFlow:TensorBoard可视化
关键字全网搜索最新排名 【机器学习算法】:排名第一 【机器学习】:排名第二 【Python】:排名第三 【算法】:排名第四 我们会再接再厉 成为全网优质的技术类公众号 在学习深度网络框架的过程中,我们发现一个问题,就是如何输出各层网络参数,用于更好地理解,调试和优化网络?针对这个问题,TensorFlow开发了一个特别有用的可视化工具包:TensorBoard,既可以显示网络结构,又可以显示训练和测试过程中各层参数的变化情况。 TensorBoard的输入是tensorflow保存summary data的
昱良
2018/04/08
1.4K0
TensorFlow:TensorBoard可视化
TensorFlow从1到2 | 第五章 非专家莫入!TensorFlow实现CNN
当看到本篇时,根据TensorFlow官方标准《Deep MNIST for Experts》(https://tensorflow.google.cn/get_started/mnist/pros),你已经达到Expert Level,要恭喜了。 且不说是否夸大其词,换一种角度,假如能乘坐时光机仅往回飞5年,借此CNN实现,你也能在ImageNet上叱咤风云,战无不胜。就算飞不回去,它在今天依然是大杀伤力武器,大批大批老算法等着你去枪毙,大片大片垂直领域换代产品等着你去落地。这还不够么? 上一篇Tenso
用户1332428
2018/03/09
1K0
TensorFlow从1到2 | 第五章 非专家莫入!TensorFlow实现CNN
TensorFlow-dev-summit:那些TensorFlow上好玩的和黑科技
本文属于介绍性文章,其中会介绍许多TensorFlow的新feature和summit上介绍的一些有意思的案例,文章比较长,可能会花费30分钟到一个小时
CreateAMind
2018/07/24
6170
TensorFlow-dev-summit:那些TensorFlow上好玩的和黑科技
AlexNet网络的结构详解与实现
在2012年ImageNet图像分类任务竞赛中AlexNet一鸣惊人,对128万张1000个分类的预测结果大大超过其他算法模型准确率,打败其它非DNN网络一鸣惊人。AlexNet包括5个卷积层与三个全连接层,与今天动则十几层、几十层甚至成百上千层相比,简直是太简单、太容易理解啦。AlexNet网络一共有八层。前面5层是卷积层,后面3层是全连接层,整个网络结构显示如下:
OpenCV学堂
2018/07/26
1.7K0
AlexNet网络的结构详解与实现
相关推荐
tensorflow学习笔记_03
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档