腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
估计服务
Keras
模型
所需的资源
、
、
我有一个
Keras
模型
(.hdf5),我想部署
在
云中进行预测。现在我想估算一下我需要多少资源(CPU、
GPU
、RAM等)。 有没有人有关于函数/经验法则的建议,可以对此有所帮助?
浏览 17
提问于2019-01-20
得票数 2
回答已采纳
1
回答
Keras
、
Tensorflow
在
构建
模型
时
保留
所有
GPU
内存
、
、
我的
GPU
是NVIDIA RTX 2080 TI
Tensorflow
-
gpu
1.12.0加载
构建
模型
后(在编译之前),我发现
GPU
内存
已完全分配我试着监控
GPU
的
内存
使用情况,发现它在
构建
层之后就满了(在编译
模型
之前)。
浏览 9
提问于2019-07-16
得票数 0
2
回答
通过
Keras
/ TF 2019限制
GPU
内存
使用?
、
、
、
我读过这样的答案: import
tensorflow
as tfconfig =tf.ConfigProto()set_session(tf.Session(config
在
keras
和TF中似乎都有如此多的更新,以至于
在
2
浏览 18
提问于2019-04-22
得票数 4
回答已采纳
1
回答
GPU
在运行
Keras
/
tensorflow
-
gpu
时
崩溃,特别是当时钟速度
在
0 MHz时空闲时
、
、
、
我使用木星笔记本运行带有
Tensorflow
GPU
后端的
Keras
。我的
GPU
是一个GeForce GTX 960米,它没有问题运行游戏。运行
Keras
时
温度也很低。我注意到的是,
Keras
在
开始时运行良好(例如加载或训练
模型
),但是每当
Keras
不运行任何东西
时
,
GPU
自然希望从1097 MHz空闲到0 MHz,并且一旦出现
GPU
崩溃。(config=conf
浏览 1
提问于2018-11-01
得票数 1
2
回答
为什么带有
TensorFlow
的
Keras
没有使用
所有
GPU
内存
、
、
、
我
在
Windows10中使用
Keras
2.0.8和
TensorFlow
1.3.0,你知道为什么没有使用
所有
内存
吗?或者至少接近它。当我开始运行进程
时
输出: 名称: GeForce GTX 1060总
内存
: 6.00GiB 在这个例子中(当它崩溃是因为OOM)显示限制是
浏览 3
提问于2017-09-03
得票数 2
1
回答
不能使用Plaidml
在
GPU
上运行
Keras
模型
、
、
、
我想在我的
GPU
上运行这个
Keras
模型
,但是它运行在我的cpu上,我用Plaidml来使用我的
GPU
,plaidml是正确设置的,它运行在其他的
模型
上--我想也许我是
在
导入tensoflow,但我不确定,我需要在
GPU
上运行这个
模型
,我有其他不导入
tensorflow
的
模型
,它们与Plaidml很好地工作。源代码environ
浏览 6
提问于2021-12-05
得票数 1
回答已采纳
1
回答
在
Tensorflow
2中清除图形并释放
GPU
内存
、
我正在按顺序训练多个
模型
,如果我
保留
所有
模型
而不进行任何清理,这将消耗大量
内存
。然而,
在
TensorFlow
2.x中,我没有意识到有任何方法可以绘制图形并释放
GPU
内存
。我试过但没有用的东西tf.compat.v1.reset_default_graph也不起作用
浏览 0
提问于2021-09-23
得票数 0
2
回答
当其他
模型
仍在
内存
和使用中
时
,如何在删除
模型
之后释放Python中的TF/
Keras
内存
?
、
、
、
我有一个Python应用程序,它提供
TensorFlow
/
Keras
模型
推理服务。可以为多个不同的客户端同时加载和使用多个不同的此类
模型
。客户端可以请求加载另一个
模型
,但这对其他客户端没有任何影响(即它们的
模型
保留
在
内存
中并按其本身使用,因此每个客户端都可以请求加载另一个
模型
,而不管其他客户端的状态如何)。根据我
在
中看到的内容,您可能希望清除一个
Keras
会话,以便通过调用tf.<em
浏览 3
提问于2021-01-14
得票数 3
回答已采纳
2
回答
Keras
:完成训练过程后释放
内存
、
我使用
Keras
构建
了一个基于CNN结构的自动编码器
模型
,
在
完成训练过程后,我的笔记本电脑有64
GPU
的
内存
,但我注意到至少1/3的
内存
仍然被占用,
GPU
内存
也是如此。我没有找到释放
内存
的好方法,我只能通过关闭Anaconda提示符命令窗口和jupyter笔记本来释放
内存
。我不确定是否有人有好的建议。谢谢!
浏览 3
提问于2018-06-24
得票数 20
2
回答
tensorflow
2.0
gpu
集可用
gpu
?
、
、
from
tensorflow
.python.client import device_lib local_device_protos =device_lib.list_local_devices()get_available_gpus() '/device:
gpu
:0',&
浏览 20
提问于2019-11-17
得票数 1
1
回答
Tensorflow
GPU
内存
分配
、
、
、
我正在尝试使用我的
GPU
而不是CPU来训练一个定制的对象检测
模型
。我遵循了以下教程中给出的
所有
说明:但是问题是,
在
训练了几秒钟之后-29 15:01:20.504027: I
浏览 11
提问于2020-12-29
得票数 0
1
回答
Tensorflow
/
keras
multi_
gpu
_model不分裂为多个
gpu
、
、
、
如果使用来自multi_
gpu
_model的
tensorflow
.
keras
.utils,则
tensorflow
将在
所有
可用的
gpu
(例如2)上分配全部
内存
,但如果监视nvidia,则只使用第一个
gpu
正如预期的那样,数据由cpu加载,
模型
在
gpu
上运行,
gpu
利用率为97% - 100%: 创建multi_
gpu
模型
正如multi_<e
浏览 0
提问于2019-03-06
得票数 0
1
回答
DSVM
GPU
内存
不足
、
、
、
服务器运行Flask、Apache和
Keras
。问题是,即使使用我的
模型
进行预测的批处理大小很小,
GPU
也会耗尽
内存
。
在
没有运行的情况下,12 is的
GPU
使用了超过10 is的
内存
。也许这是因为Apache的一个问题。
浏览 4
提问于2018-01-31
得票数 0
1
回答
为什么
keras
中的model.fit_generator
在
选择数据之前就花了那么多时间?
在
Keras
,我正在训练一个
模型
,如下所示 samples_per_epoch = count, callbacks=getCallBacks(),
在
data_generator
在
fit_generator函数之上运行时,打印data_generator(
浏览 0
提问于2018-06-19
得票数 4
1
回答
如何使用
GPU
构建
Keras
(TF)
模型
?
、
、
、
非常简单,我如何知道当我通过
Keras
在
tensorflow
中
构建
Sequential()
模型
时
,它将使用我的
GPU
?通常,
在
火炬,所以很容易使用‘设备’参数,可以通过nvidia-smi波动度验证。我
在
TF中
构建
模型
时
尝试过,但是nvidia显示
所有
GPU
设备的使用率为0%。
浏览 1
提问于2021-06-14
得票数 0
1
回答
NoneType没有属性'select‘KerasDML SystemML
、
、
我
在
中运行示例
Keras
2DML代码
时
遇到了一些问题。在运行代码
时
,我得到了这个错误: File "/home/fregy/kerasplayground/sysml/examplenn.py", line 12, in <module> sysml_model =
Keras
2DML(spark,
keras
_model,i
浏览 6
提问于2018-02-01
得票数 0
2
回答
当使用带有作业数的optuna超参数优化器
时
,
keras
“
所有
层名都应该是唯一的”错误。
、
、
我使用optuna包来优化我的
模型
,并且使用这个选项一次运行多个作业。当我运行这个
时
,我得到: Trial failed because of the following error: ValueError('The name "dense" is used 3 times我有了
tensorflow
.
keras
.backend.clear_session(),当我删除它
时
,我就不会再得到错误了。这个可以移除吗?影响是什么?对此还有别的解决办法吗?
浏览 1
提问于2020-09-13
得票数 1
回答已采纳
1
回答
为什么我的inception和2M参数的LSTM
模型
需要1G的
GPU
内存
?
、
、
该
模型
主要
构建
在inception和LSTM之上,并由
Keras
在
TensorFlow
2.x上实现。保存的
模型
参数仅占用2M空间。该
模型
是动态训练的,批次大小为32,每批0.25M的数据量。然而,我观察到它需要1G的
GPU
内存
。我找不到原因,也不知道
在
训练期间可以使用哪些工具来监控
模型
不同部分的
GPU
内存
成本。
浏览 0
提问于2021-04-20
得票数 0
1
回答
如何打印
Keras
的model.fit()期间使用的最大
内存
、
、
、
我用
Keras
和
Tensorflow
编写了一个神经网络
模型
,并且能够训练和运行它。此时,我想知道训练
模型
需要多少
内存
。如何在培训阶段打印这些信息?我尝试了下面的
Keras
模型
分析器,但它没有解释训练阶段所需的峰值
内存
。例如,训练我的
模型
显示
在
6GB的
GPU
卡上
内存
不足,但是配置文件显示
内存
需求小于1GB。那么,当我
在
model.fit()中使用<
浏览 2
提问于2022-01-18
得票数 2
回答已采纳
2
回答
如何用
tensorflow
2和
keras
在
多gpus上训练
模型
?
、
、
、
我有一个LSTM
模型
,我想训练多个gpus。我对代码进行了转换,
在
nvidia-smi中,我可以看到它正在使用
所有
gpu
的
所有
内存
,每个
gpu
都在使用大约40%的
内存
,但每批培训的估计时间几乎与1个
gpu
相同。我的代码:from
浏览 26
提问于2019-11-28
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TensorFlow.js发布:使用JS进行机器学习并在浏览器中运行
Python深度学习之TensorFlow的高级框架
一图看懂TensorFlow 2.0新架构
谷歌官方解读 TensorFlow 2.0 所有新特性
深度学习框架的优缺点介绍
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券