腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
可以
在
Keras
中
释放
GPU
分配
的
资源
吗
?
、
、
我
在
一个循环中训练了许多不同
的
模型,以比较它们
在
不同时间段
的
性能。models.train_2_layer_mlp(train_X, train_y, verbose=0) verbose=0) local_results['5_layer_mlp_dropout'] = model
浏览 23
提问于2019-06-18
得票数 0
回答已采纳
1
回答
如何在使用带有tensorflow后端
的
Keras
时控制内存?
、
、
、
、
我已经创建了一个包装类,它初始化了一个
keras
.models.Sequential模型,并有几种方法来启动培训过程和监视进度。我
在
我
的
main文件
中
实例化这个类并执行培训过程。相当平凡
的
东西。我
的
问题是:将__exit__方法添加到我
的
NeuralNet类并将其实例化为: nn.t
浏览 1
提问于2016-04-11
得票数 9
1
回答
实际
的
图形处理器内存使用率与glDeleteXXXX?
、
、
、
GPU
驱动程序是否必须按需从应用程序
释放
GPU
内存?如果不是,是否会使应用程序可能想要做任何
GPU
内存
资源
管理无效,因为它是从实际内存
中
“移除
的
层”? 我
分配
了很多纹理,然后
释放
它们。当
分配
时,我
可以
看到"
GPU
系统字节“(
在
进程
资源
管理器
中
)迅速增加(数量大大超过了图像
的
硬盘空间-也许它们
在
浏览 3
提问于2017-03-23
得票数 0
2
回答
Keras
在前2个时期使用
GPU
,然后停止使用它
、
、
、
我有一个自定义
的
数据生成器,它从
keras
中子类化Sequence,并从hdf5文件中生成批处理。现在,当我使用训练生成器进行model.fit_generator时,模型使用图形处理器并在前两个时期快速训练(图形处理器内存已满,图形处理器易失性使用率
在
50%左右波动很好)。然而,
在
第三个时期之后,
GPU
易失性使用率为0%,并且时期花费了20倍
的
时间。 这里发生了什么事?
浏览 2
提问于2020-04-18
得票数 0
2
回答
Keras
:完成训练过程后
释放
内存
、
我使用
Keras
构建了一个基于CNN结构
的
自动编码器模型,
在
完成训练过程后,我
的
笔记本电脑有64
GPU
的
内存,但我注意到至少1/3
的
内存仍然被占用,
GPU
内存也是如此。我没有找到
释放
内存
的
好方法,我只能通过关闭Anaconda提示符命令窗口和jupyter笔记本来
释放
内存。我不确定是否有人有好
的
建议。谢谢!
浏览 3
提问于2018-06-24
得票数 20
1
回答
如何在tensorflow
中
释放
GPU
内存?( `allow_growth`→`allow_shrink`?)
、
、
、
我用
GPU
训练了很多模型。我想调优网络
的
架构,所以我对不同
的
模型进行了顺序
的
训练,以比较它们
的
性能(我使用
的
是
keras
-tuner)。 问题是有些模型非常小,而另一些则非常大。我不想把所有的
GPU
内存
分配
给我
的
培训,而只是我需要
的
数量。我有TF_FORCE_
GPU
_ALLOW_GROWTH到true,这意味着当一个模型需要大量内存时,
GPU
就会
分配</e
浏览 7
提问于2022-10-25
得票数 1
1
回答
封装CUDA内核
的
最佳方法是什么?
、
目前,我发现
的
解决方案是使用Struct封装数据,对于每个需要进行
GPU
处理
的
方法,需要实现3个函数:我给你举个例子。假设我需要实现一个方法来初始化结构
中
的
缓冲区。threadsPerBlock>>>(this);} __global__ initFo
浏览 2
提问于2012-04-15
得票数 4
回答已采纳
1
回答
为什么
keras
中
的
model.fit_generator
在
选择数据之前就花了那么多时间?
在
Keras
,我正在训练一个模型,如下所示 samples_per_epoch = count, callbacks=getCallBacks(),
在
data_generator函数
中
,我打印了几个调试语句。
在
fit_generator函数之上运行时,打印
浏览 0
提问于2018-06-19
得票数 4
2
回答
通过
Keras
/ TF 2019限制
GPU
内存使用?
、
、
、
我读过这样
的
答案: import tensorflow as tfconfig =tf.ConfigProto()set_session(tf.Session(config
在
keras
和TF
中
似乎都有如此多
的
更新,以至于<e
浏览 18
提问于2019-04-22
得票数 4
回答已采纳
1
回答
不使用CUDA_VISIBLE_DEVICES指定
Keras
、
、
、
、
我有一个带有两个
GPU
的
系统,并且正在使用带有Tensorflow后端
的
Keras
。
Gpu
:0被
分配
给PyCUDA,它执行一个独特
的
操作,转发给
Keras
,并随批进行更改。因此,我希望
在
gpu
:1上运行一个
Keras
模型,同时将
gpu
:0
分配
给PyCUDA。 有办法这样做
吗
?纵观以前
的
线程,我发现了几种折旧
的
解
浏览 0
提问于2018-10-25
得票数 0
回答已采纳
1
回答
CUDA内核如何在多个块上工作,每个块都有不同
的
时间消耗?
假设我们运行一个具有4个块(b1、b2、b3、b3} )
的
内核函数。每个块都需要{10、2、3、4}时间来完成作业。而我们
的
GPU
只能并行处理两个块。如果是那样的话,哪一个是正确
的
方式,我们
的
GPU
如何工作?
浏览 3
提问于2022-05-29
得票数 0
1
回答
OpenGL ES VBO奇怪
的
内存影响
、
、
、
、
当我试图
在
Android上使用VBO加载繁重
的
图形场景时,
在
GPU
生成
的
设备日志
中
遇到内存不足异常。我尝试提供
的
原始二进制数据大小不到可用RAM
的
一半。在做了一些研究后,我发现在每次glBufferData(..)调用之后,空闲内存
的
数量减少了2倍于提供
的
数据大小(
在
不同
的
设备上尝试,相同
的
结果)。manager.getMemoryInfo(info);
浏览 0
提问于2017-02-24
得票数 2
1
回答
OpenGL - glDeleteTextures实际上是做什么
的
?
、
、
、
(Mac,iOS应用程序)(正式文件是.稀疏,充其量。)干杯。
浏览 0
提问于2010-08-31
得票数 2
回答已采纳
1
回答
如何在加载两个不同
的
模型时使用model.predict()函数
、
、
在此之前,我还有两个预处理脚本,其中一个只是裁剪和归一化图像,另一个裁剪,删除图像
的
一部分并归一化图像。
在
使用分类器脚本之前,我首先让预处理器脚本
在
图像上运行。现在我想把所有的脚本合并在一起。然后,我对每个模型使用model.predict()方法并加载相应
的
图像。但这一次它不起作用。我
的
一个模型总是预测相同
的
类,但当我让它在一个脚本
中
单独运行时,它工作得很好。背景:我有模具
的
图像,可能有划痕或折断
的
边缘。由于这两个错误
可以
浏览 37
提问于2021-03-11
得票数 0
1
回答
在
CPU和
GPU
上
的
两个单独
的
juypter笔记本
中
训练
Keras
模型
、
、
、
我正在为Jupyter Notebook上
的
两个不同
的
应用程序训练
Keras
CNN模型。考虑到我想充分利用PC
的
资源
,我
可以
在
一台笔记本电脑和另一台使用CPU
的
笔记本电脑中使用
Keras
-
GPU
吗
?我了解到
Keras
默认使用
GPU
--如果有的话--我
可以
强制
Keras
使用CPU,就像在中一样。我
的
问题是,通
浏览 15
提问于2019-11-06
得票数 1
回答已采纳
1
回答
cuSolverRf示例状态
分配
失败
、
、
使用示例文件lap2D_5pt_n100.mtx和lap3D_7pt_n20.mtx运行该程序
可以
使程序顺利运行。但是,当我
在
自己
的
.mtx文件
中
插入时,
在
步骤8之后会出现一个错误: exit(EXIT_FAILURE);} 我
的
问题是“
浏览 2
提问于2016-08-22
得票数 0
回答已采纳
1
回答
CUDA统一内存页,可在CPU
中
访问,但未从
GPU
中
删除
、
、
上运行这个代码,它提供了16 GB
的
Tesla P100 PCIe
GPU
。我有一个使用x
分配
的
整数数组( cudaMallocManaged() )。首先,我
在
GPU
中
预取数组并对其进行一些处理,然后将其预取到CPU并进行一些处理。在此期间,我在内存传输之前和之后打印
GPU
上可用
的
空闲内存。基于此,我有两个问题:
在
第一次预取期间,就在cudaMallocManaged()之后,空闲内存比我
分配</em
浏览 23
提问于2021-12-05
得票数 -1
回答已采纳
1
回答
估计服务
Keras
模型所需
的
资源
、
、
我有一个
Keras
模型(.hdf5),我想部署
在
云中进行预测。现在我想估算一下我需要多少
资源
(CPU、
GPU
、RAM等)。 有没有人有关于函数/经验法则
的
建议,
可以
对此有所帮助?我找不到任何有用
的
东西。提前感谢!
浏览 17
提问于2019-01-20
得票数 2
回答已采纳
3
回答
Apache mod_wsgi django调用
keras
模型时,如何
释放
占用
的
GPU
内存?
、
、
、
我
的
服务器配置如下: 谢谢!
浏览 17
提问于2017-05-12
得票数 15
回答已采纳
1
回答
GPU
训练后使用CPU
、
、
我使用
的
是tensorflow-
gpu
1.10.0和
Keras
-
GPU
2.2.4与Nvidia gtx765M(2GB)
GPU
,操作系统是Win8.1-64位-16 2GB内存。我
可以
使用560x560 pix映像和批处理大小=1来训练网络,但是
在
训练结束后,当我尝试测试/预测时,我会得到以下错误: ResourceExhaustedError: OOM when allocating所以我
的
问题是,是否有可能首先使用
GPU</e
浏览 0
提问于2019-03-19
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
优化资源分配:项目管理软件在项目组合管理中的应用
顺宁宏能源:不断推进发展,在新的资源分配中受益
对比,还原真实的GPU池化
MacBook显卡不跑AI模型太浪费:这个深度学习工具支持所有品牌GPU
Exxact与Run:ai合作,最大化利用GPU集群的AI工作负载
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券