腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
TensorFlow
中
模型
并行
和
流水线
训练
的
示例
代码
、
、
、
、
朴素
模型
-跨多个GPU进行分区会导致工作负载在向前
和
向后传递期间从GPU移动到GPU。在任何时刻,都有一个GPU在忙碌。这是一个简单
的
版本。activation='relu')) model.add(Dense(num_classes, activation='softmax')) 我们需要
示例
代码
(模板)来
流水线
工作,并通过发送批处理波和协调每个GPU上
的
工作(向前
浏览 11
提问于2018-08-08
得票数 0
2
回答
Tensorflow
Extended:可以在
Tensorflow
extended flow中使用pytorch
训练
循环吗
、
、
、
我已经使用pytorch
训练
了一个图像分类
模型
。我正在考虑使用
TensorFlow
扩展。我非常怀疑我是否能够在
TensorFlow
扩展管道中使用我
的
PyTorch
训练
模型
(我可以将
训练
模型
转换为ONNX,然后转换为
Tensorflow
兼容格式)。我不想重写
和
重新
训练
训练
部分到
TensorFlow<
浏览 6
提问于2020-11-13
得票数 2
2
回答
为什么要将
TensorFlow
用于卷积神经网络
、
、
我最近在Coursera上参加了Andrew Ng写
的
courser。在那之后,我转向Python,使用Pandas,Numpy,Sklearn来实现ML算法。现在,当我在网上冲浪
的
时候,我遇到了
tensorFLow
,我发现它非常神奇,并实现了这个,它将MNIST数据作为输入。但是我不确定为什么要使用诸如库(
TensorFlow
)之类
的
库?我们没有做任何
并行
计算,因为在前一个时期更新
的
权重将在下一个时期使用?我发现很难找到使用这样
的
库
的</em
浏览 1
提问于2017-01-05
得票数 1
1
回答
Tensorflow
自动使用多个CPU吗?
、
、
我编写了一些
代码
,用
Tensorflow
的
CPU(仅限于CPU)进行推理。它运行在一个集群节点上,在那里我可以访问24个GPU
和
1个GPU。我不使用GPU,因为我将需要做
的
任务CPU-只是稍后。不知怎么
的
,每次我从另一个程序(OpenFOAM)调用
Tensorflow
代码
时,
Tensorflow
似乎都运行在所有
并行
的
CPU上。然而,我没有做任何事情来造成这种行为。现在我想知道
Tensorfl
浏览 1
提问于2019-05-17
得票数 1
1
回答
Tensorflow
的
图间复制是数据
并行
的
一个例子吗?
、
、
我读过
和
。 说: 例如,可以在不同
的
GPU上
并行
地
训练
网络
中
的</
浏览 0
提问于2018-06-20
得票数 8
回答已采纳
1
回答
当在
Tensorflow
上增加Inter
并行
度时,到底会发生什么?
、
、
我读过
Tensorflow
关于InterOp
和
IntraOp
并行
性
的
文档。然而,我还没有完全理解InterOp
并行
是如何影响
Tensorflow
的
。我
的
问题是:来自InterOp线程池
的
线程实际上是
并行
地
训练
模型
(也就是说,每个线程都在
训练
批
的
不同子集上进行
训练
,方法是在线程之间分割
训练
迭代),还是它们只是<e
浏览 0
提问于2017-08-03
得票数 2
回答已采纳
1
回答
用附加数据重新培训现有的基本BERT
模型
、
、
我已经生成了新
的
Base model(dataset1_model_cased_L-12_H-768_A-12),使用cased_L-12_H-768_A-12作为从
训练
的
多标签分类。我需要添加更多
的
额外数据,比如dataset2_model_cased_L-12_H-768_A-12,
模型
应该是dataset2 => dataset1 =>数据集1_model_L_L-12_H-768_A
浏览 0
提问于2020-07-17
得票数 3
2
回答
TensorFlow
多gpu
训练
中
的
模型
并行
性
我正在使用
tensorflow
在一台机器上
训练
几个GPU
中
的
模型
。然而,我发现速度比在一个GPU上
训练
要慢得多。我想知道
tensorflow
是否在不同
的
GPU
中
并行
地或顺序地执行子
模型
。tf.device('/gpu:0'):with tf.device('/gpu:1'):
浏览 2
提问于2018-04-02
得票数 0
回答已采纳
1
回答
在知识蒸馏
中
,学生
模型
和
教师
模型
如何
并行
运行?
、
、
、
、
我正在使用知识蒸馏实现快速
的
DNN
模型
训练
,如下图所示,以
并行
运行教师
和
学生
模型
。 我查看了一些流行
的
代码
库,比如
和
。它们逐步执行学生
和
教师
模型
的
前向操作,即不在不同
的
设备(GPU或CPU)上
并行
执行。我正在尝试加快这个
训练
过程,以便使用多个设备同时运行两个
模型
(例如,在CPU上加载一个
模型
,
浏览 5
提问于2020-09-11
得票数 0
1
回答
tensorflow
中
LSTM
的
分布式
训练
、
、
、
、
如果在
模型
中使用它,如果我使用分布式
训练
,反向传播会发生冲突吗?
浏览 5
提问于2017-12-26
得票数 1
回答已采纳
1
回答
如何在图形核心议会联盟上实现
模型
并行
性?
、
我成功地将我
的
TensorFlow
模型
的
一个版本移植到了Graphcore议会联盟,并运行了数据
并行
性。然而,全尺寸
模型
并不适合于单一
的
议会联盟,我正在寻找实现
模型
并行
性
的
策略。到目前为止,我还没有找到关于
模型
并行
方法
的
信息,除了
中
的
TensorFlow
指南中针对议会联盟
的
信息之外,在该指南中
浏览 2
提问于2020-06-23
得票数 2
回答已采纳
1
回答
为什么多GPU
tensorflow
再培训不起作用
我一直在使用单个GTX Titan
训练
我
的
tensorflow
再
训练
算法,它工作得很好,但当我尝试在再
训练
示例
中使用多个GPU时,它不起作用,当我在Nvidia SMI
中
运行它时,它似乎只使用一个GPU为什么会发生这种情况,因为它在从头开始在初始
模型
中
重新
训练
时使用多个gpus,而不是在重新
训练
期间?
浏览 5
提问于2016-09-05
得票数 1
回答已采纳
1
回答
用关键点预
训练
模型
训练
自定义对象检测
模型
的
pipeline.config设置
、
我有预先培训过
的
模型
centernet_32 104_512x512_kpt_ and 17_tpu-32,创建了.record文件并使用键点数据集进行了注释。), dtype=tf.float32) 在pipeline.config
中
,我有指向标签映射文件
和
.record文件
的
路径。我
训练
过盒子
模型
,没有任何问题,但是有了关键点注释,
浏览 5
提问于2022-01-13
得票数 0
1
回答
如何在我
的
tensorflow
模型
的
转移学习
和
微调
中
实现?
、
、
我有一个预先
训练
过
的
模型
(
tensorflow
模型
),它是使用来自公共数据集
的
数据进行
训练
的
。我有元文件
和
录入文件。我想
训练
我
的
tensorflow
模型
使用新
的
数据从私人获得
的
数据集。我有小数据集,所以我想微调我
的
模型
根据‘战略2’或‘战略3’。 Strategy 2:
训练
一
浏览 0
提问于2020-03-02
得票数 1
1
回答
模型
并行
在
tensorflow
中
的
实现
、
、
我目前正在开发一个有2个GPU
的
系统,每个GPU
的
容量为12 of。我想在两个GPU之间实现
模型
并行
,以
训练
大型
模型
。我一直在互联网上浏览,所以,
tensorflow
文档等等,我能够找到关于
模型
并行
性
的
解释及其结果,但是我没有找到一个关于如何使用
tensorflow
实现它
的
小教程或小
代码
片段。我
的
意思是我们必须在每一层之后交换激活,对吗?那我们怎
浏览 1
提问于2017-02-06
得票数 9
回答已采纳
2
回答
TensorFlow
中
序列到序列
模型
的
分布式(多设备)实现?
、
、
、
、
是一个非常好
的
教程,在
TensorFlow
中
训练
序列到序列
模型
.我只想知道是否有一个分布式版本
的
,它利用(一组GPU)在单机上获得更好
的
性能?已经提到,可以
训练
一个大型
的
多层递归神经网络(参见图8
和
“
模型
并行
训练
”部分)。有谁知道目前
的
教程是否涵盖
模型
并行
培训?如果没有,如何改进最初
的
教程来利
浏览 2
提问于2016-03-03
得票数 2
回答已采纳
1
回答
Tensorflow
目标检测:为什么使用固态硬盘mobilnet v1时,图像
中
的
位置会影响检测精度?
、
、
、
我正在
训练
一个
模型
来检测夜空图片中
的
流星,我有一个相当小
的
数据集,大约有85张图像,每张图像都有一个边界框注释。我正在使用迁移学习技术,从ssd_mobilenet_v1_coco_11_06_2017检查点
和
TensorFlow
1.4开始。在
训练
过程
中
,我将图像大小调整为600x600像素。我在
流水线
配置中使用数据增强来随机地水平、垂直翻转图像,并旋转90度。经过5000步后,
模型
收敛到损失约0.3,并将检测到流星
浏览 1
提问于2018-04-26
得票数 2
2
回答
Tensorflow
在scikit-learn中导致错误
、
、
、
当我在导入
tensorflow
之前导入scikit-learn时,我没有任何问题。运行这段
代码
会产生1.7766212763101197e-12
的
输出。,那么学习我
的
代码
将不再起作用。当我运行这个
代码
块时import numpy as npimport numpy.random as randmod.fit_transform(X)pri
浏览 2
提问于2018-03-02
得票数 0
1
回答
分布式
训练
是否产生在每个分布节点内
训练
的
平均NNs神经网络?
、
、
、
、
我目前正在筛选大量关于神经网络分布式
训练
(反向传播
的
训练
)
的
材料。因此,如果我们只是以某种巧妙
的
方式将梯度
和
分布式
训练
结合起来,那么整个过程
训练
就相当于每个分布式节点内
的
训练
所产生
的
网络平均。如果我对上面描述
的
事情是正确
的
,那么我想尝试将由分布式节点手工生成
的
权重组合起来。 ,所以我
的
问题是:,如何使用任何主流技术,例如
浏览 0
提问于2019-06-30
得票数 0
回答已采纳
2
回答
通过REST访问机器学习
模型
、
、
、
、
我制作了一个卷积神经网络来分类猫
和
狗
的
图像。数据集以及
代码
都可以在线获得。我使用Python作为我
的
编程语言。但是现在我需要在服务器上部署这个
模型
,并需要使用REST访问它。我使用HDF5格式保存了我
的
模型
。参考
示例
"model.h5“:但是我更喜欢java. 我更喜欢使用Spri
浏览 2
提问于2018-07-26
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
联邦学习(FL)中常见的3中模型聚合方法的 Tensorflow 示例
tensorflow训练模型loss不变化的可能原因和怎么判断tensorflow模型是否过拟合
基于tensorflow.js在浏览器中设计训练神经网络模型的18条建议
DeepSeek开源第一个用于混合专家模型训练和推理的高效专家并行通信库
深度学习TensorFlow道术6
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券