首页
学习
活动
专区
圈层
工具
发布

TensorFlow 使用变量共享

参考: https://www.tensorflow.org/programmers_guide/variable_scope 举例说明 TensorFlow中的变量一般就是模型的参数。...当模型复杂的时候共享变量会无比复杂。...官网给了一个case,当创建两层卷积的过滤器时,每输入一次图片就会创建一次过滤器对应的变量,但是我们希望所有图片都共享同一过滤器变量,一共有4个变量:conv1_weights, conv1_biases...通常的做法是将这些变量设置为全局变量。但是存在的问题是打破封装性,这些变量必须文档化被其他代码文件引用,一旦代码变化,调用方也可能需要变化。还有一种保证封装性的方式是将模型封装成类。...不过TensorFlow提供了Variable Scope 这种独特的机制来共享变量。

1.6K10

共享变量 tensorflow解读

你可以在怎么使用变量中所描述的方式来创建,初始化,保存及加载单一的变量.但是当创建复杂的模块时,通常你需要共享大量变量集并且如果你还想在同一个地方初始化这所有的变量,我们又该怎么做呢.本教程就是演示如何使用...一个更高明的做法,不用调用类,而是利用TensorFlow 提供了变量作用域 机制,当构建一个视图时,很容易就可以共享命名过的变量....变量作用域实例 变量作用域机制在TensorFlow中主要由两部分组成: tf.get_variable(, , ): 通过所给的名字创建或是返回一个变量....这里有一些在TensorFlow中使用的初始化变量: tf.constant_initializer(value) 初始化一切所提供的值, tf.random_uniform_initializer(...就像你看见的一样,tf.get_variable()会检测已经存在的变量是否已经共享.如果你想共享他们,你需要像下面使用的一样,通过reuse_variables()这个方法来指定. 1with tf.variable_scope

93320
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Tensorflow多GPU使用详解

    磐创AI 专注分享原创AI技术文章 翻译 | fendouai 编辑 | 磐石 【磐创AI导读】:本文编译自tensorflow官方网站,详细介绍了Tensorflow中多GPU的使用。...目录: 介绍 记录设备状态 手动分配状态 允许GPU内存增长 在多GPU系统是使用单个GPU 使用多个 GPU 一. 介绍 在一个典型的系统中,有多个计算设备。...在 TensorFlow 中支持的设备类型包括 CPU 和 GPU。...如果要真正限制 TensorFlow 进程可用的GPU内存量,这非常有用。 五. 在多GPU系统上使用单个GPU 如果您的系统中有多个GPU,则默认情况下将选择具有最低ID的GPU。...使用多个 GPU 如果您想要在多个 GPU 上运行 TensorFlow ,则可以采用多塔式方式构建模型,其中每个塔都分配有不同的 GPU。

    5.9K40

    Tensorflow中的共享变量机制小结

    今天说一下tensorflow的变量共享机制,首先为什么会有变量共享机制? 这个还是要扯一下生成对抗网络GAN,我们知道GAN由两个网络组成,一个是生成器网络G,一个是判别器网络D。...所以这里D的输入就有2个,但是这两个输入是共享D网络的参数的,简单说,也就是权重和偏置。而TensorFlow的变量共享机制,正好可以解决这个问题。...所以变量共享的目的就是为了在对网络第二次使用的时候,可以使用同一套模型参数。TF中是由Variable_scope来实现的,下面我通过几个栗子,彻底弄明白到底该怎么使用,以及使用中会出现的错误。...# 先初始化 """ tensorflow.python.framework.errors_impl....明天要说的是用TensorFlow实现Kmeans聚类,欢迎关注~ ============End============

    2.4K30

    Tensorflow入门教程(九)——Tensorflow数据并行多GPU处理

    这一篇我会说Tensorflow如何数据并行多GPU处理。 如果我们用C++编写程序只能应用在单个CPU核心上,当需要并行运行在多个GPU上时,我们需要从头开始重新编写程序。...但是Tensorflow并非如此。因其具有符号性,Tensorflow可以隐藏所有这些复杂性,可轻松地将程序扩展到多个CPU和GPU。 例如在CPU上对两个向量相加示例。 ?...同样也可以在GPU上完成。 ? 但是如果我们有两块GPU并且想要同时使用它们,该怎么办呢?答案就是:将数据进行等份拆分,并使用单独GPU来处理每一份拆分数据。 ? 让我们以更一般的形式重写它。...还添加了一个变量作用域并将其重用设置为true。这确保使用相同的变量来处理两个分支。 我们来看一个更实际的例子。...注意:当用多块GPU时,模型的权重参数是被每个GPU同时共享的,所以在定义的时候我们需要使用tf.get_variable(),它和其他定义方式区别,我在之前文章里有讲解过,在这里我就不多说了。

    1.6K30

    安装GPU加速的tensorflow 卸载tensorflow

    安装GPU加速的tensorflow 卸载tensorflow 一: 本次安装实验环境 Ubuntu 16.04 + cuda9.0 + cudnn7.0 或 Ubuntu 16.04 + cuda8.0...那下面简单的命令就可以完成卸载了 sudo pip uninstall tensorflow_gpu sudo pip3 uninstall tensorflow_gpu 用 pip...local/cuda/lib64 ) 注意,按照网上一些版本不匹配的安装方法,这里执行后还要执行复制和删除软连接的操作,其实完全是多余的,当然,如果你不小心装错版本,是有必要修改软连接的 五:配置环境变量...我们就把cuda的环境变量配在 .bashrc 吧: sudo gedit ~/.bashrc 把下面命令粘贴到文件末尾 export LD_LIBRARY_PATH=$LD_LIBRARY_PATH...(gpu_options=gpu_options)) 如果你显卡内存剩于挺多的,那么可能是你在配置多版本cuda时没有清空之前cuda的缓存: sudo rm -rf ~/.nv/ # 完美解决

    1.3K50

    4.4 共享变量

    4.4 共享变量 一般来说,当一个被传递给Spark操作(例如,Map和Reduce)的函数在一个远程集群上运行时,该函数实际上操作的是它用到的所有变量的独立副本。...这些变量会被复制到每一台机器,在远程机器上对变量的所有更新都不会传回主驱动程序。...有时,我们需要变量能够在任务中共享,或者在任务与驱动程序之间共享。 而Spark提供两种模式的共享变量:广播变量和累加器。Spark的第二个抽象便是可以在并行计算中使用的共享变量。...□广播变量:可以在内存的所有节点中被访问,用于缓存变量(只读); □累加器:只能用来做加法的变量,如计数和求和。...并对广播变量和累加器两种模式的共享变量进行了讲解,但是在此仅仅讲解了RDD的基础相关部分,对RDD在执行过程中的依赖转换,以及RDD的可选特征优先计算位置(preferred locations)和分区策略

    1.4K120

    基于Tensorflow、Keras实现Stable Diffusion,开箱即用实现多GPU推理

    不过原有模型是基于 Torch 实现的,现在,来自 Meta 的研究者 Divam Gupta 表示:基于 Tensorflow/Keras 实现的 Stable Diffusion 已经来了。...项目地址:https://github.com/divamgupta/stable-diffusion-tensorflow 总结来说,该项目的特点有 3 个:转换预训练模型;代码易于理解;代码量少。...Keras 的创造者 François Chollet 表示:它在 M1 MacBooPros GPU 上实现开箱即用,它还可以开箱即用地进行多 GPU 推理。...Chollet 还表示,除了GPU外,它还可以开箱即用地进行 TPU 推理:只需获取一个 TPU VM 并将 TPU strategy scope 添加到代码中。...astronaut riding a horse" 使用 python 接口: pip install git+https://github.com/fchollet/stable-diffusion-tensorflow

    1.9K20
    领券