腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(82)
视频
沙龙
1
回答
MTCNN
在
第一次
检
测时
不
使用
GPU
,
但在
后续
检
测时
使用
GPU
、
我安装了tensorflow 2.0 -
gpu
。我正在用
MTCNN
做人脸检测。
在
第一次
调用检测人脸时,需要3.86秒。在下一次调用时,只需要.049秒。我怀疑它在
第一次
调用时没有
使用
GPU
,
但在
第二次调用时确实
使用
了
GPU
。我知道
MTCNN
确实导入了tensorflow,但我不明白为什么
第一次
调用时不
使用
GPU
。代码如下。import time
浏览 48
提问于2020-07-27
得票数 1
回答已采纳
3
回答
face-api.js -为什么浏览器的faceapi.detectAllFaces()比服务器快?
、
、
、
、
我想在我的服务器端
使用
人脸检测。因此,我为这项任务找到了。我发现faceapi.detectAllFaces()的每次调用持续了大约10秒。我的服务器端代码(您可以
在
中看到类似的代码):import { canvas, faceDetectionNet, faceDetectionOptions我可以
在
我的faceapi.detectAllFaces()-function上做什么类似的事情也有同样的速度?
浏览 1
提问于2019-05-22
得票数 6
1
回答
PyTorch:为什么运行output =model(映像)需要这么多
GPU
内存?
、
、
、
在
试图理解为什么我的PyTorch模型的最大批处理大小是有限的时,我注意到
使用
最多内存的不是模型本身,也不是将张量加载到
GPU
中。当
第一次
生成预
测时
,大部分内存都会耗尽,例如训练循环中的以下一行:其中图像是一些输入张量,模型是我的PyTorch模型。在运行该行之前,我有大约9GB的
GPU
内存可用,然后我降低到2.5GB (在运行loss = criterion(outputs, labels)之后,它进一步下降到1GB可用)。据我所知,模型
浏览 3
提问于2022-05-27
得票数 4
回答已采纳
1
回答
GPU
上的OpenCV快速检测器
、
、
CV_BGR2GRAY);std::cout << "FAST
GPU
当
使用
调试配置时,
GPU
检测执行得更快。 但是当
使用
释放时,正常(CPU)快速检测器的执行速度更快。此外,无论所
使用
的配置类型如何,该检测器
在
GPU
上的性能都保持不变。但是,与Debug配置相比,
在
释放下执行检<em
浏览 6
提问于2016-10-07
得票数 2
回答已采纳
2
回答
首次
使用
Azure Devops进行构建
、
、
我正在
使用
AzureDevops管线运行构建。当我创建新的管线时,我不会将其排队,而只是保存。如果选择了CI触发器,则在
检
入任何项目时将运行管路。
但在
第一次
运行/签入时,所有在当前签入之前发生的签入(变更集/提交)以及这些签入的所有工作项都会喜欢(关联)管道。 这种行为对我来说是不可取的。有没有办法禁用它?在所有
后续
签入中,构建将仅与触发管线的版本相关联。这也是我
在
第一次
构建中想要的,它只与触发它的chack-in关联。
浏览 0
提问于2020-07-02
得票数 0
3
回答
model.fit和model.predict中的批量大小
、
、
在
keras中,model.fit和model.predict都有一个batch_size参数。我的理解是,model.fit中的批处理大小与批处理优化有关,batch_size
在
model_predict中的物理意义是什么?是否需要与model.fit
使用
的值相等?
浏览 1
提问于2018-03-14
得票数 11
回答已采纳
1
回答
tiny-yolo-v3
在
GPU
上的推理时间
、
、
、
、
我正在
使用
GPU
运行时
在
google collab上推断tiny-yolo-v3。
使用
的
GPU
是Tesla P100-PCIE-16
GPU
。运行darknet inference命令后,显示的预
测时
间为0.91秒。 我可以从代码中看出,这个时间戳是
GPU
上的网络处理时间,其中不包括图像的预处理和后处理。我创建了包含相同结果的单元格。我知道这些
GPU
非常昂贵,而且性能很好。但0.91秒的推断时间占0.9帧/秒的性能,这并不显
浏览 20
提问于2020-05-29
得票数 0
1
回答
在
aws ModelError上部署预先训练的tensorflow模型:
在
调用InvokeEndpoint操作时发生错误(ModelError)
、
、
、
这是我
第一次
使用
amazon服务来部署我的机器学习预培训模型。我想把我的预先训练过的TensorFlow模型部署到Aws-Sagemaker。我可以成功地部署端点,但是每当我调用predictor.predict(some_data)方法对调用端点进行预
测时
,它就会抛出一个错误。
在
查看云监视日志之后,我发现了这个错误。type,allowed=[DT_HALF, DT_BFLOAT16, DT_FLOAT, DT_DOUBLE]; attr=strides:list(int); attr=use_cudnn_on_
浏览 4
提问于2020-04-07
得票数 2
回答已采纳
1
回答
Uber Ludwig:预测问题
、
、
、
我想
使用
python API做一个简单的演示,它学习如何将输入数字加1。我已经成功地制作了一个模型,
但在
预
测时
出现了问题。我
在
CPU TensorFlow上的PopOS 19.10上运行的是github的最新版本。谢谢你的帮助。 编辑:我也
在
windows上重现了这个问题。dict') File "/home/user/.local/lib/python3.7/site-packages/ludwig/
浏览 14
提问于2020-04-10
得票数 0
回答已采纳
2
回答
从用户空间应用程序读取原始
GPU
内存
、
、
、
resource3_wc
使用
访问内存不起作用将0写入位置将在下一次读取时返回零,
但在
任何
后续
读取时将返回0x000000005665BDF5。
在
第一次
读取之后,所有位置的值0x000000005665BDF5都是相同的。对这些(失败的)读/写进行基准测试似乎表明它
浏览 43
提问于2022-04-22
得票数 0
回答已采纳
1
回答
为什么RNN的隐藏状态被初始化为每一个时代而不是每一批?
、
、
为什么RNNs/LSTM/GRUs的隐藏状态通常只
在
一个时代结束后才重新初始化,而不是
在
批处理完成后重新初始化?
浏览 0
提问于2023-01-25
得票数 0
回答已采纳
1
回答
多任务处理技术
、
另一种是
在
几乎无限的工作负载上进行大量计算;不需要与第一个任务同步;真的不喜欢被中断(鼓励更粗的工作量粒度)。 试图避免th**ad单词,因为它在
GPU
上意味着不同的东西
浏览 4
提问于2022-07-29
得票数 0
1
回答
使用
CUDA转置: Blog中的程序查询
、
、
、
我已经给了下面的博客链接作为矩阵转置的例子,因为下面的链接显示了如何
使用
3种方法来转置矩阵,朴素的,合并的和naive冲突合并的 我甚至在网上阅读了代码的解释,这是一个很好的矩阵转置的参考资料 正如你所看到的,为什么内核被调用了两次: 1\ once for注释说
在
for尽管我只
使用
其中的一个进行了测试,但它们都给出了有效的输出,但时间不同。 希望我的问题是清楚的,如果有什
浏览 1
提问于2015-03-08
得票数 0
3
回答
CPU -
GPU
内存数据流
、
、
、
假设我有一个静态模型(例如一个建筑物),我只加载一次并安装一次,并且
在
整个应用程序生命周期内不会改变。用初始
浏览 0
提问于2013-11-29
得票数 16
1
回答
我怎么知道Vulkan什么时候不再
使用
内存,这样我就可以覆盖/重用它?
在
使用
Vulkan时,通常在创建缓冲区时创建多个缓冲区(缓冲区‘版本’),因为如果你有双缓冲,例如你不知道图形API是否还在绘制最后一帧(
使用
你绑定的内存并指示它
使用
最后一个循环)。如果你想更新一个图像或顶点缓冲区,如果你不知道图形API是否还在
使用
它,你会怎么做呢?您是否只是简单地为该图像/缓冲区重新分配新的内存并重新开始?即使你只想更新它的一部分?毕竟,它仍然可以被
使用
。这是怎么做的?
浏览 3
提问于2021-09-24
得票数 1
1
回答
CUDA共享内存速度
、
、
然后,我
使用
共享内存实现了一个性能提升缓存。
浏览 0
提问于2012-11-19
得票数 1
回答已采纳
1
回答
cudaMalloc
在
不同的CPU线程上返回相同的内存地址
、
、
、
GPU
(只安装了1个
GPU
)。(多个主机进程共享同一个
GPU
)。但是,这是
在
使用
CUDA运行时API时。现在,我将切换到驱动程序API。 为了找出这一点,我转储了上面代码的mem。原来,对于这两个进程,cuMemAlloc返回的内存地址是相同的!这让我很惊讶。为了说明这一点:两个进程都
使用
cudaMalloc (运行时应用程序接口)和cuMalloc (驱动程序API) (
在
大卡上为400MB)请求设备内存,并且两个进程都返回相同的地址?
不
,这个内
浏览 4
提问于2012-10-20
得票数 3
回答已采纳
3
回答
Kaggle笔记本诉谷歌Colab
、
、
、
要处理数据集,我的第一步是启动一个Kaggle笔记本,但随后我忍不住想,
使用
Colab笔记本的好处是什么。Kaggle笔记本允许
在
Kaggle网站上与其他用户协作,而Colab允许任何
使用
该笔记本链接的用户协作。Kaggle没有像Colab那样直接将笔记本上传到GitHub的功能。Kaggle的笔记本可以公开,让所有
在
Kaggle的用户查看,投票,叉子和讨论,
浏览 0
提问于2020-07-16
得票数 6
1
回答
如何为我的ATI动态可切换图形安装最佳驱动程序?-安装前或安装结束后加热和压碎(12.04,12.10)
、
、
、
、
-当我在这里写问题时,我仍然处于第七局:(我说的电脑是一台这里,一台hp展馆,g7-1246ef。这样的答案是关于ATI
GPU
的。- -考虑到英特尔和我有双重图形的事实:如果
浏览 0
提问于2014-10-13
得票数 1
回答已采纳
2
回答
2D阵列的cudaMalloc失败,错误代码为11
、
、
、
我尝试
在
CUDA中实现一个二维数组,如下所示:u_int32_t **host_fb = 0;
在
测试时此外,当我获取cudaMalloc((void **)&host_fb[i], numOpsPerCore*sizeof(u_i
浏览 2
提问于2011-11-12
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
公交测酒仪专为智慧公交设计:签到测酒自动化 三检五查智能化
年检新项目启动,检车效率大跌,最难的事情就是找不到OBD接口!
滨州市完成全员核酸检测预登记2541611人(截至2月3日17:30)
人工智能检测设备实现手机外观缺陷全自动检测
公厕智能尿检黑科技,数策指今方便检让您如厕和体检两不误
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券