腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(8031)
视频
沙龙
1
回答
如何
使用
Tensorflow
在
单个
GPU
上
训练
批量
相对
较大
的
大
模型
?
、
我有一个非常
大
的
模型
,无法
在
单个
GPU
上
训练
,由于内存不足错误,批处理大小为64。有人建议我
使用
较小
的
批量
。但是,如果我减小我
的
批处理大小,准确度就会下降。其中一种解决方案是,只需输入当前批次
的
一半,存储梯度,然后输入其余部分。这可以通过
使用
compute_gradients和apply_gradients显式完成。但是它
相对
不
浏览 3
提问于2018-01-19
得票数 1
回答已采纳
1
回答
如何
将
单个
批处理划分为多个调用以节省内存
我有一个有点
大
的
模型
,它只能在小
批量
的
GPU
上
训练
,但我需要
使用
更大
的
批量
(从其他实验中,我知道这提高了最终
的
准确性和收敛时间)。Caffe通过'iter_size‘选项为这个问题提供了一个很好
的
解决方案,它将一个批次分割成n个较小
的
批次,累积n个梯度,然后更新一次
如何
在
TensorFlow
中有效地
浏览 9
提问于2016-08-16
得票数 1
0
回答
具有多个工人
的
ML engine
上
的
Keras
模型
训练
我已经构建了一个语义分割Keras (
tensorflow
后端)
模型
,并试图
在
google cloud ml引擎
上
对其进行
训练
。我有大约200,000 (256x256)个图像可以
在
小
批量
(10)
上
训练
大约100个时期。当我只
使用
complex_model_m_
gpu
类型
的
主设备时,1个纪元几乎要花25个小时。我不确定Keras
模型
如何
适应多<e
浏览 11
提问于2018-07-18
得票数 2
2
回答
TensorFlow
RNN
训练
100%CPU,仅
使用
60%
GPU
、
、
我正在编写
训练
相对
较大
的
RNN (128单元LSTM和一些附加层)
的
代码。主要
的
进程是
在
CPU
上
最大限度地
使用
内核,我想知道这是否正常,或者我是否可以优化它。
在
训练
循环(session.run调用)中,它
使用
大约60-70%
的
GPU
负载,而在一个内核
上
使用
100%
的
CPU负载。请注意,数据采样
浏览 20
提问于2017-03-17
得票数 1
1
回答
为什么多
GPU
tensorflow
再培训不起作用
我一直
在
使用
单个
GTX Titan
训练
我
的
tensorflow
再
训练
算法,它工作得很好,但当我尝试
在
再
训练
示例中
使用
多个
GPU
时,它不起作用,当我
在
Nvidia SMI中运行它时,它似乎只
使用
一个
GPU
为什么会发生这种情况,因为它在从头开始
在
初始
模型
中重新
训练
时
使用
多个gpu
浏览 5
提问于2016-09-05
得票数 1
回答已采纳
2
回答
batch_size与运行时间
的
关系
、
以前我认为更小
的
batch_size会导致更快
的
训练
,但在keras
的
实践中,我得到了相反
的
结果,即更大
的
batch_size使
训练
更快。我正在实现一个示例代码,通过增加batch_size
的
数量,
训练
变得更快。这与我以前
的
普遍看法相反( batch_size越小,
训练
速度越快),下面是示例代码: # fit modelstart = time.time() history
浏览 41
提问于2019-09-06
得票数 1
2
回答
Keras MemoryError: alloc
在
Windows
上
失败
、
、
、
我想
训练
我
的
网络(不幸
的
是CPU
上
的
图像分类),我有71.000张记录: 48x48 (灰度)图像。我用我
的
笔记本电脑,它有8GB内存,当我看到性能时,
训练
运行和一段时间后,它
使用
100%。model = Sequential() model.add(Convolution2D(32, 3, 3, border_mode='same',
浏览 3
提问于2017-01-26
得票数 1
2
回答
使用
TensorFlow
并行
训练
多个小
批量
的
图形处理器
我
使用
的
是NVIDIA
GPU
上
的
TensorFlow
1.9,内存为3 GB。我
的
小
批量
的
大小是100MB。因此,我可能会同时
在
我
的
GPU
上
安装多个迷你批次。所以我
的
问题是,这是否可能,这是否是标准做法。例如,当我
训练
我
的
TensorFlow
模型
时,我
在
每
浏览 22
提问于2018-08-06
得票数 4
回答已采纳
1
回答
为什么Keras没有
使用
完整
的
GPU
内存?
、
、
有没有人知道还有什么可能会阻止我
使用
全部内存?我将在下面解释为什么我认为我被阻止
使用
全部内存。 我有一个非常
大
的
Keras
模型
,有一个
Tensorflow
后端,我
在
AWS
上
运行。我可以
使用
batch_size 4
训练
,但是如果我
使用
batch_size 8
训练
,它会溢出内存。我
的
实例是一个p3.2xlarge,它有16 GB
的
GPU</e
浏览 0
提问于2018-09-13
得票数 0
1
回答
在
GPU
上
训练
ssd_mobilenet_v2
模型
需要多少内存?
、
我想
使用
Tensorflow
API
的
模型
SSD MobileNet v2
在
一个
相对
较大
的
数据集
上
训练
对象检测器(大约3000幅图像用于
训练
,500幅用于测试)。我已经成功地管理了所有必要
的
预处理步骤,创建了train.record和test.record文件,并尝试
使用
train.py运行
模型
的
培训,但是培训过程被内核所扼杀。
浏览 0
提问于2018-05-22
得票数 1
2
回答
语义图像分割神经网络(DeepLabV3+)
的
内存过多问题
、
、
、
、
我
的
输入图片是灰色
的
,但对于DeepLab,我将其转换为RGB图片,因为DeepLab是
在
RGB图片
上
训练
的
。但我转换后
的
图片仍然不包含颜色。 ? ? ? 对于这项任务,我选择了一个名为DeepLab V3+
的
语义分割网络,
在
Keras中
使用
TensorFlow
作为后端。我想用我
的
近3000张图片来
训练
神经网络。从Keras网站上,我知道了
如何</e
浏览 83
提问于2019-02-21
得票数 6
回答已采纳
1
回答
在
单个
gpu
上
,
TensorFlow
能否
训练
出一个大于
GPU
内存
的
模型
?
、
、
、
、
如果我有一个具有8GBRAM
的
GPU
,并且我有一个
TensorFlow
模型
(不包括培训/验证数据),即10 8GB,那么
TensorFlow
可以
训练
这个
模型
吗?如果是,
TensorFlow
是
如何
做到这一点
的
?我不是
在
寻找分布式
GPU
培训。我想知道
单个
GPU
的
情况。我不关心培训/验证数据
的</
浏览 0
提问于2020-12-09
得票数 1
1
回答
Tensorflow
中
的
同步与异步计算
、
、
在
Tensorflow
CIFAR教程中,它讨论了
如何
使用
多个
GPU
,并给出了以下警告: “天真地
使用
模型
参数
的
异步更新会导致次优
的
训练
性能,因为
单个
模型
副本可能被
训练
在
模型
参数
的
陈旧副本
上
。反之,完全同步更新
的
速度将与最慢
的
模型
副本一样慢
浏览 3
提问于2015-12-18
得票数 3
回答已采纳
3
回答
使用
Flask
使用
REST API提供经过
训练
的
Tensorflow
模型
?
、
、
、
、
我有一个经过
训练
的
Tensorflow
模型
,我想用REST API提供预测方法。我能想到
的
是
使用
Flask构建一个简单
的
REST API,该API接收JSON作为输入,然后调用
Tensorflow
中
的
predict方法,然后将预测结果返回给客户端。
浏览 1
提问于2016-04-08
得票数 10
1
回答
跨多个
gpu
镜像多
gpu
模型
、
、
我有一个
tensorflow
(tf2.0)/keras
模型
,它
使用
多个
GPU
进行计算。
模型
中有2个分支,每个分支都在单独
的
GPU
上
。我有一个4个
GPU
的
系统,我想用来
训练
,我想镜像这个
模型
,这样
GPU
1和2包含一个
模型
,
GPU
3和4包含镜像
的
模型
。 会自动处理此镜像吗?或者它假
浏览 4
提问于2019-11-04
得票数 0
1
回答
如何
让分布式
tensorflow
实验
在
worker而不是master
上
运行评估?
、
、
我正在
使用
Google Cloud ML Engine与
tensorflow
.contrib.learn.Experiment一起
训练
模型
。默认情况下,
tensorflow
似乎让主服务器运行评估。我只
在
训练
完成后才运行evals (min_eval_frequency=0),而且我
的
主人有大量
的
内核和内存,但没有
GPU
(所以eval
相对
于P100工人来说非常慢)。我可以
在
一个wo
浏览 6
提问于2017-11-29
得票数 0
1
回答
我想在CPU
上
使用
Tensorflow
,除了反向传播
、
我最近构建了我
的
第一个
TensorFlow
模型
(从手工编码
的
python转换而来)。我
使用
的
是
tensorflow
-
GPU
,但我只想在
训练
中
使用
GPU
作为后盾。对于其他
的
一切,我想
使用
CPU。我看到演示了
如何
在默认情况下
使用
GPU
的
系统
上
强制
使用
CPU。但
浏览 1
提问于2018-11-10
得票数 1
2
回答
如何
在Tegra X2
上
使用
TesnorFlow-
GPU
模型
进行推理?
、
、
、
、
我是Jetson x2董事会
的
新手。 我计划在TX2板
上
运行我
的
tensorflow
-
gpu
模型
,看看它们在那里
的
表现
如何
。这些
模型
是
在
GTX
GPU
机上
训练
和测试
的
。
在
tx2板
上
,Jetpack full不包含
tensorflow
。因此,
tensorflow
需要构建/安装,我已经看
浏览 2
提问于2018-11-23
得票数 1
回答已采纳
1
回答
使用
tensorflow
对
单个
对象进行培训时
使用
自定义对象检测
的
问题
我正在
训练
一个预先建立
的
基于
tensorflow
的
模型
,用于定制对象检测。我只想检测到一种类型
的
对象。我从不同
的
角度,
在
不同
的
光照条件下拍摄了很多照片。我正在K80 Nvidia
GPU
上
训练
。一切正常,当我
训练
时,我可以看到损失函数下降到0.3。但是当我开始
训练
的
时候,损失值很快下降到1以下。我
使用
SSD移动
浏览 0
提问于2018-06-29
得票数 0
1
回答
使用
tensorflow
对
单个
对象进行培训时
使用
自定义对象检测
的
问题
、
我正在
训练
一个预先建立
的
基于
tensorflow
的
模型
,用于定制对象检测。我只想检测到一种类型
的
对象。我从不同
的
角度,
在
不同
的
光照条件下拍摄了很多照片。我正在K80 Nvidia
GPU
上
训练
。一切正常,当我
训练
时,我可以看到损失函数下降到0.3。但是当我开始
训练
的
时候,损失值很快下降到1以下。我
使用
SSD移动
浏览 1
提问于2018-06-29
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在 PyTorch 中使用梯度检查点在GPU 上训练更大的模型
在TensorFlow和PaddleFluid中使用多块GPU卡进行训练
AI四巨头Google、DeepMind、Microsoft、Uber深度学习框架大比拼
教程帖:深度学习模型的部署
GPU捉襟见肘还想训练大批量模型?谁说不可以
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券