腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如
何在
更快
的
RCNN
中
生成
背景
类
?
、
、
、
、
我有一个医学图像集,我正在尝试使用
更快
的
rCNN
训练我
的
网络。这个想法是为了检测图像
中
的
肿瘤。我
的
示例图像包含一个肿瘤,如下所示。 file_path_to_the_image, x_min, y_min, x_max, y_max, class 在训练网络时,
浏览 13
提问于2020-05-05
得票数 0
3
回答
TensorFlow对象检测应用编程接口-对象检测应用编程接口中
的
损失意味着什么?
、
、
、
以下损失
中
的
每一个都意味着什么?(在TensorFlow对象检测应用编程接口中,同时训练基于FasterRCNN
的
模型)Loss/BoxClassifierLoss
浏览 0
提问于2018-01-05
得票数 17
回答已采纳
1
回答
更快
-
RCNN
bbox/图像归一化
、
、
、
我正在自定义数据集(大约3000幅图像,7个不同
的
类
,包括
背景
)上玩py-
更快
-
rcnn
,并遵循以下教程:我正在使用end2end解决方案与VGG16一切正常,期待我
的
结果,所以我有一些问题: 在图像和bbox注解上需要什么样
的
规范化?我修改了num_output在cls_score和bbox_pred层(根据这个线程:),但是在end2end解决方案
浏览 7
提问于2016-12-27
得票数 2
回答已采纳
1
回答
掩膜-
rcnn
:需要为预测气球
的
根/处理程序和方向提供建议。
、
、
、
、
通过读取掩码
rcnn
气球示例(:将我
的
气球数据集中
的
方位和根位置注释信息输入到修改
的
mask_
rcnn
中
,然后它可以学习如何检测val数据集中
的
每个气球
的
方位(度数)和根位置。状态 对于训练数据集,我使用VIA绘制了一条线(从根/处理程序到每个气球
的
最底部),它可以指示图像
中
每个气球实例
的
方向,因为在VIA
中
,一行包含两个点,因此json文
浏览 0
提问于2018-09-20
得票数 1
回答已采纳
1
回答
计算机视觉检测对小物体
的
不良影响原因
何在
?
、
、
目前,对于检测(定位+识别任务),我们主要采用
的
是计算机视觉
中
的
深度学习算法。有两种类型
的
探测器: 在非常小
的
对象(例如10个像素)上使用这些检测器是一项非常具有挑战性
的
任务,而且一步算法似乎比两阶段算法差。但我真的不明白为什么它在
更快
的
RCNN
上运行得更好。
浏览 0
提问于2018-06-25
得票数 1
回答已采纳
1
回答
如
何在
tensorflow
中
实现区域兴趣池层?
、
、
、
我正在尝试创建
更快
的
RCNN
类
模型。当涉及到来自功能图
的
ROI池时,我被卡住了。我知道这里可以使用双线性采样,但它可能对端到端训练没有帮助。如
何在
tensorflow
中
实现此ROI池化层?
浏览 5
提问于2018-08-18
得票数 0
1
回答
更快
的
RCNN
的
输出
、
、
有没有可能在
更快
的
RCNN
中
得到单个
类
的
3个边界框?在我
的
工作
中
,我想从
更快
的
RCNN
得到3个最好
的
建议。例如,假设我
的
模型在树上寻找苹果。
浏览 20
提问于2020-09-06
得票数 1
回答已采纳
1
回答
更快
的
RCNN
锚点
生成
、
、
、
、
我正在尝试理解
更快
的
RCNN
的
概念。 例如,在一张图像(224×224)
中
,只有两个对象。为了从图像
中
创建一个长度为256(128-前景,128-
背景
)
的
锚点
的
小批量,我只得到了30个锚点,与地面实况边界框相比,IOU大于0.7。 在这种情况下,我应该如何使前景对象与
背景
保持平衡?
浏览 19
提问于2020-12-05
得票数 2
回答已采纳
1
回答
列车
中
的
物体位置是否会影响
更快
的
RCNN
的
结果?
、
、
、
您有没有尝试过在
更快
的
rcnn
中
每个
类
的
位置
的
影响?如果我
的
训练数据总是在帧
的
一个区域中有一个对象
类
,比如在图像
的
右上角,而在评估数据集中,我有一个图像,这个对象位于另一个区域,左下,这个
更快
的
RCNN
是否能够处理这种情况?或者,如果我想让我
的
网络找到所有帧区域中
的
所有
类
,我需要在涵盖所有区域
浏览 1
提问于2017-10-17
得票数 0
回答已采纳
1
回答
我怎么知道哪个GPU足够解决一个问题?
、
我使用进行目标检测,并发现在我
的
计算机上运行速度
更快
的
using算法进行推理完全太慢了(~15s,无法处理一幅图像)。我在使用GPU构建真实
的
应用程序方面没有多少经验,也不确定我是应该使用云实例还是购买低端
的
GPU(在200-500美元
的
范围内)。我预计我
的
应用程序会有很小
的
流量,所以即使是较小
的
实例对于我所要完成
的
任务也是非常昂贵
的
。 问题:,对于我来说,判断GPU是否足够快,而不首先购买它,最好
浏览 4
提问于2019-12-31
得票数 1
回答已采纳
2
回答
两种基于深度学习
的
分类器
的
结合方法
、
、
我想要一个基于CNN
的
主分类器和一个类似的图像区域二级分类器。因此,主图像区域和辅助图像区域将用于一次推断一个类别标签。现在还有哪些其他方式或架构可以执行这样
的
任务,而不是ROI池? 理想情况下,我希望有一个与本文类似的分类器方案,但不使用ROI池。
浏览 0
提问于2018-03-13
得票数 2
回答已采纳
1
回答
如
何在
RCNN
、快速
RCNN
或
更快
的
RCNN
中
设置迭代次数?
、
、
、
我对R网络模型进行了自定义数据集
的
培训,最终得到了预期
的
结果。但是,我无法在启动火车进程之前找到设置迭代次数
的
位置,而且培训仍在继续,没有任何停止时间
的
迹象。是否有一种预先设置迭代次数
的
方法,以便在指定步骤之后停止?这是训练
rcnn
的
代码: imagePath = 'D:\Thesis\Data\VEDAI\vedai\train_images'Verbose',
浏览 2
提问于2017-08-05
得票数 1
回答已采纳
3
回答
我是否应该包括Tensorflow对象检测API
的
负面示例?
、
、
、
我正在构建一个使用
的
RCNN
检测网络。大多数教程侧重于自定义标签
的
培训,但没有提到负面的培训示例。这类检测器是如何处理不包含感兴趣对象
的
图像
的
?它只是输出一个很低
的
概率,还是它会强迫在图像
中
画一个边框? 我目前
的
计划是在opencv中使用传统
的
背景
减
浏览 6
提问于2017-10-05
得票数 13
回答已采纳
1
回答
使用tensorflow对象检测减少误报
的
方法有哪些?
、
、
我正在用mask
rcnn
训练一个单目标检测器,我已经尝试了几种减少误报
的
方法。我相信我这样做是正确
的
,因为我添加了一条print语句来确保创建对象。然而,
更快
的
rcnn
的
配置
中
没有一个包含硬示例挖掘。因此,我怀疑矿工只有在ssd上才能正常工作。我期待着一个艰难
的
例子矿工
的
显着改进,但我没有看到它。 我尝试
的
第二件事是添加“
背景
”图像。我在hard example miner配置中
浏览 0
提问于2018-06-19
得票数 3
1
回答
以下哪个CNN模型用于哪个计算机视觉任务?
、
、
、
、
我
的
分类正确吗?图像分类,VGG-16:图像分类起始模块:图像分类,EfficientNet:图像分类, 神经类型转换:图像
生成
浏览 4
提问于2021-09-14
得票数 1
回答已采纳
1
回答
我在哪里可以找到在COCO数据集上训练过
的
带有Mobilenet特征提取器
的
fasterRCNN / R-FCN
的
预训练模型?
、
我想使用tensorflow动物园
中
预先训练好
的
模型。但我找不到
更快
的
Rcnn
模型,使用mobilenet作为基础提取器。我在哪里可以买到它? 我已经在github
中
创建了tensorflow动物园。我之前也使用过SSD+Mobilenet配置来做同样
的
事情。现在,我想将FasterRCNN和
RCNN
与Mobilenet
的
结果进行比较。
浏览 2
提问于2019-05-17
得票数 0
1
回答
对象检测api,coco模型
、
、
、
我突然意识到faster_
rcnn
_inception_resnet_v2_atrous_lowproposals_coco模型
的
名字是不同
的
,而且准确性也很差,比如faster_
rcnn
_inception_resnet_v2_atrous_coco和faster_
rcnn
_resnet50_coco之间
的
主要区别是什么?为什么在resnet 50
中
什么都没有使用,为什么会出现atrous,low proposals这样
的
术语:
浏览 4
提问于2020-07-13
得票数 0
1
回答
如
何在
运行py-
更快
-
rcnn
时使用已经构建
的
Caffe?
、
、
、
、
/tools/demo.py (
如
中所述)时,我会得到以下错误: 因此,安装指南中
的
步骤4说,
浏览 6
提问于2016-12-12
得票数 3
回答已采纳
0
回答
如何使用Mxnet Faster
RCNN
进行目标检测来打印每个类别的平均精度
、
、
、
我正在使用
更快
的
rcnn
(mxnet)在我自己
的
数据集上进行对象检测,它有9个
类
(包括
背景
)。然而,我发现它最终只打印出了训练过程中所有9个类别的平均准确率。此外,在测试过程
中
,它还仅打印出所有9个类别的平均精度和召回率。我想知道如何打印出训练过程
中
每个班级
的
准确率,以及测试过程
中
每个班级
的
召回率和精确度?或者有人能告诉我,我应该关注哪里才能接近我
的
目标?图中将显示一个理想
浏览 9
提问于2017-11-30
得票数 1
2
回答
训练图像大小
更快
-
RCNN
、
、
、
我将使用faster-
rcnn
为一个
类
训练我
的
数据集。我所有的照片都是1920x1080大小
的
。我应该调整图像大小或裁剪图像,还是可以使用此大小进行训练?而且我
的
对象真的很小(大约60x60)。在配置文件
中
,有两个尺寸分别为min_dimension: 600和max_dimension: 1024,因此我很难使用1920x1080大小
的
图像来训练模型。
浏览 11
提问于2019-09-09
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在Python中如何在main函数中调用类中的方法
Python中如何在子类中不调用父类的__init__方法
如何在Excel中录制宏以恢复生成的成绩条
如何在 7 个简单步骤中训练自己的 AI 推理模型(类 DeepSeek-Level)
从行业28%的合法医师中甄选高水准手术修复类医生,新氧底气何在
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券