首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Yolov3没有检测到任何东西,但是Yolov2工作得很好

Yolov3和Yolov2是目标检测算法中常用的模型,它们都属于基于深度学习的目标检测算法。Yolov3相较于Yolov2在准确率和速度上有所提升。

当Yolov3没有检测到任何东西,但是Yolov2工作得很好时,可能有以下几个原因:

  1. 模型参数和配置:Yolov3和Yolov2的模型参数和配置文件可能存在差异,导致Yolov3无法正确检测目标。可以检查Yolov3的配置文件,确保其与Yolov2相匹配,并且参数设置合理。
  2. 数据集:Yolov3和Yolov2的训练数据集可能存在差异,导致Yolov3无法适应当前场景。可以尝试使用更多、更全面的数据集进行训练,以提高Yolov3的检测能力。
  3. 模型训练:Yolov3的训练过程可能存在问题,导致模型无法准确地学习目标特征。可以检查训练过程中的参数设置、学习率调整策略等,确保模型能够充分学习目标特征。
  4. 目标特征:Yolov3可能对当前场景中的目标特征不敏感,导致无法正确检测。可以尝试调整Yolov3的网络结构或参数,以提高对目标特征的感知能力。

总结起来,要解决Yolov3没有检测到任何东西的问题,可以从模型参数和配置、数据集、模型训练、目标特征等方面进行调整和优化。另外,腾讯云提供了一系列与深度学习和计算机视觉相关的产品和服务,例如腾讯云AI智能图像处理、腾讯云机器学习平台等,可以帮助开发者进行模型训练和部署。具体产品介绍和链接地址可参考腾讯云官方文档。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

目标检测|YOLOv2原理与实现(附YOLOv3)

近期,YOLOv3也放出来了,YOLOv3也在YOLOv2的基础上做了一部分改进,我们在最后也会简单谈谈YOLOv3所做的改进工作。 ?...使用Darknet-19之后,YOLOv2的mAP值没有显著提升,但是计算量却可以减少约33%。 ?...第二项是计算先验框与预测宽的坐标误差,但是只在前12800个iterations间计算,我觉得这项应该是在训练前期使预测框快速学习先验框的形状。...5 YOLOv3 近期,YOLOv3发布了,但是正如作者所说,这仅仅是他们近一年的一个工作报告(TECH REPORT),不算是一个完整的paper,因为他们实际上是把其它论文的一些工作在YOLO上尝试了一下...YOLOv3的特征提取器是一个残差模型,因为包含53个卷积层,所以称为Darknet-53,从网络结构上看,相比Darknet-19网络使用了残差单元,所以可以构建更深。

2K40

目标检测(object detection)系列(九) YOLOv3:取百家所长成一家之言

,形容一个论文却有些许的尴尬,但是YOLOv3确实是这样,没什么大的改动和创新点,而是融合借鉴了很多在其他的方案,最后效果还是很好的,文章中自己也提到了:“We made a bunch of little...╮( ̄▽  ̄)╭ 多层分支 多层拉取分支的策略终于在YOLOv3中用到了,也可以说这其实是一种FPN结果,在YOLOv2中,多层特征就已经被使用了,但是使用的方式并不直接,它是一种不同层的特征图拼接,让最后一层具有不同的特征...其次,YOLOv3在Open Image的实验并没有做,这样一来,上面两个理由站不住脚啊。...YOLOv3性能评价 定量实验 YOLOv3给了两套评价标准下的结果,一个是按照IOU=0.5算出来的mAP-50,一个事按照COCO标准算出来的mAP,COCO要计算IOU从0.50.95之间间隔为...,让特征在channel上没有形变; YOLOv3的多层分支后还有多层卷积,缓解了特征图尺寸足够,但是语义信息不足的情况; YOLOv3的archor输出达到了106747个。

38620
  • 目标检测(object detection)系列(九) YOLOv3:取百家所长成一家之言

    前言:取百家所长成一家之言 取百家所长成一家之言是一句书面意思上绝对褒义的话,形容一个论文却有些许的尴尬,但是YOLOv3确实是这样,没什么大的改动和创新点,而是融合借鉴了很多在其他的方案,最后效果还是很好的...╮( ̄▽  ̄)╭ 多层分支 多层拉去分支的策略终于在YOLOv3中用到了,其实在YOLOv2中,多层特征就已经被使用了,但是使用的方式并不直接,它是一种不同层的特征图拼接,让最后一层具有不同的特征,具体可以参考之前的文章...YOLOv2性能评价 定量实验 YOLOv3给了两套评价标准下的结果,一个是按照IOU=0.5算出来的mAP-50,一个事按照COCO标准算出来的mAP,COCO要计算IOU从0.50.95之间间隔为...YOLOv3为什么对小目标检测效果有提升?...用upsample替换了reshape,让特征在channel上没有形变; YOLOv3的多层分支后还有多层卷积,缓解了特征图尺寸足够,但是语义信息不足的情况; YOLOv3的archor输出达到了106747

    6.2K51

    YOLOv1v2v3简述 | 目标检测

    损失函数没有完成对大小物体进行区别对待,应该更关注小物体的误差,因为对IOU影响较大,定位错误是模型错误的主要来源YOLOv2 论文: YOLO9000: Better, Faster, Stronger...  YOLOv1直接预测bbox,参考Faster R-CNN使用预设的anchor达到了很好的效果,YOLOv2去掉全连接层并开始使用achor   首先去掉最后的池化层,使得结果保持高像素,修改输入分辨率为...,由于没有约束,中心点可以在图的任何地方,导致初期训练不稳定 [1240] [1240]   因此,YOLOv2继续沿用YOLO的策略,预测相对于格子的宽高的中心位置,使用逻辑回归来约束值在$0,1...[1240]   YOLOv3的发表不是一篇完整的论文,是作者把手上的一些小工作进行整理,主要是将一些有效的trick加进去 Bounding Box Prediction [1240]   YOLOv3...level的预测 提出Darknet-53,将shortcut连接加入网络中 Conclusion ***   YOLO系列是目标检测领域里十分经典的结构,虽然目前已经出了很多更高质量更复杂的网络,但

    98310

    深度学习500问——Chapter08:目标检测(5)

    采用YOLOv2,模型的mAP值没有显著提升,但计算量减少了。...YOLO9000尤其对动物的识别效果很好但是对衣服或者设备等类别的识别效果不是很好,可能的原因是与目标检测数据集中的数据偏向有关。...8.3.6 YOLOv3 YOLOv3总结了自己在YOLOv2的基础上做的一些尝试性改进,有的尝试取得了成功,而有的尝试并没有提升模型性能。...注意,Darknet-53相比于其它网络结构实现了每秒最高的浮点计算量,说明其网络结构能更好的利用GPU。 2.YOLOv3中怎样实现多尺度检测 YOLOv3借鉴了FPN的思想,从不同尺度提取特征。...相比YOLOv2YOLOv3提取最后3层特征图,不仅在每个特征图上分别独立做预测,同时通过将小特征图上采样与大的特征图相同大小,然后与大的特征图拼接做进一步预测。

    21810

    死嗑YOLO系列(三),YOLOv3风月无边

    我面试过许多的求职者,大家在日常工作当中,最常用的模型还是 YOLO,这说明 YOLO 真的成为了工业界的事实标准,尤其是在边缘设备。 ? 这是极具挑衅的一张性能对比图。...YOLOv3 的 anchor 和 YOLOv2 一样,YOLOv3 仍然使用 k-means 在数据集合中聚类,不同的是它选择了 9 个 cluster。...同样 52x52 的 featuremap,它只经过 3 次下采样,感受野相对比较小,适合检测小目标。 而实际上,YOLOv2 对小目标检测不好,YOLOv3 极大改善了,这种多尺度预测功不可没。...Darknet-53 和 ResNet-101,ResNet-152 表现差不多,但是速度却快了很多。...关键指标看是骡子还是马 目标检测有 2 个关键指标: 检测速度 检测精度 YOLO 是唯快不破的流派,所以 YOLOv1 YOLOv2 一直在速度上取得绝对优势。

    73530

    Github 项目推荐 | 用 PyTorch 0.4 实现的 YoloV3

    yolov3 版本兼容(意味着此存储库适用于 yolov2yolov3 配置而无需修改源代码。)...; 完全支持 yolov3 检测和训练; region_loss.py 重命名为 region_layer.py; region_layer.py 和 yolo_layer.py 的输出包含在字典变量中...; 代码被修改为在 pytorch 0.4 和 python3 上工作; 修改了一些代码以加快读数并简化读数。...我没有执行上面的命令。 但是,我用预训练的yolov3.weights成功地训练了自己的数据。 您应该注意,在yolov2yolov3模型中使用时,锚信息是不同的。...为我自己的数据记录了 yolov2yolov3 训练 单击图像后,视频将在 yoube.com 上播放 yolo2 训练记录,链接: https://www.youtube.com/watch?

    88930

    目标检测(object detection)扩展系列(三) Faster R-CNN,YOLO,SSD,YOLOv2YOLOv3在损失函数上的区别

    前言 Faster R-CNN,YOLO和SSD在通用目标检测领域有着奠基一般的作用, 而YOLOv2YOLOv3由于其灵活易用的特性,在工业界一直很受欢迎,下面这篇文章主要想从损失函数的角度集中讨论下这几个主流框架的区别...YOLO,YOLOv2 YOLO和YOLOv2是one-stage的结构,没有区域建议,但是YOLO和YOLOv2做分类的时候用的L2 loss,是将分类问题当作回归任务来处理。...YOLOv3 YOLOv3YOLOv2、SSD都不同,它的分类损失既不使用softmax+交叉熵来做,又没有用L2,而是使用n个二值交叉熵来做,比如在COCO上,使用一个80类的交叉熵是可以实现的,...和YOLOv3 YOLO系列的结构中,YOLO是没有Anchor的,YOLO只有格子,YOLOv2YOLOv3带Anchor,但是这并不影响它们边界框中心点的选择,它们的边界框中心都是在预测距离格子左上角点的...YOLO,YOLOv2YOLOv3 YOLO系列在边界框回归损失上用的是L2,并没有参考RPN。 其他损失 最后就是除了分类损失和回归损失外的其他损失函数,主要是起到辅助作用。

    61230

    清华博士用几个小灯泡骗过红外识别,首次让红外检测性能直降34%|AAAI2021

    红外成像具有一定的「透视」特性,即使人体被一些衣物遮挡,但是热辐射依然可以透过衣物被接收器感知,所以可以透过遮挡进行成像。...以下就是一个例子,从图中我们看到,持有小灯泡板子的人成功地逃避了检测器的检测,而持有空白板子和不带任何东西的人却被检测检测到。 研究背景 近年来,对抗样本的研究越来越引起人们的重视。...对抗样本除了可以干扰分类模型,也可以干扰目标检测模型,例如,一张打印出来的对抗性纸张,可以成功地欺骗目标检测YOLOv2,使得其检测不到行人。...以下给出了一组具体的例子,由图中可以看到,在相同的条件下,使用了优化后的小灯泡板子的人没有YOLOv3检测到,而持有空白板子以及什么都不带的人,被YOLOv3检测到了。...该 研究揭示了目前广泛使用的红外目标检测模型可能存在安全隐患,作者表示下一步的研究工作就是研究防御对抗样本的方法,这对于提升红外行人检测系统的安全性具有重要意义。

    33220

    CV岗位面试题:简单说下YOLOv1,v2,v3,v4各自的特点与发展史

    YOLOv2 3. YOLOv3 4. YOLOv4 四、总结 一、任务描述 目标检测是为了解决图像里的物体是什么,在哪里的问题。...学习物体的通用表示(generalizable representations),泛化能力好。...但是,标记检测图像比标记分类图像昂贵得多,所以检测数据和分类数据不是一个规模。 创新点 针对第一个问题,使用一些方法提升 YOLOv1 的性能,得到 YOLOv2。...YOLOv3YOLOv2 基础上做了一些小改进,文章篇幅不长,核心思想和 YOLOv2、YOLO9000差不多。...值得注意的是文章第二部分相关工作,简直就是目标检测的一个简单综述,阅读该部分,你就能了解模型及方法,如果它提到的每个方法你都了解,说明你在这个方向的研究较全面深入(我没达到)。

    1.7K10

    YOLO 目标检测实战项目『原理篇』

    因为没有复杂的检测流程,只需要将图像输入神经网络就可以得到检测结果,YOLO 可以非常快的完成物体检测任务。标准版本的 YOLO 在 Titan X 的 GPU 上能达到 45 FPS。...YOLO 在训练和测试时都能够看到一整张图像的信息,因此 YOLO 在检测物体时能很好的利用上下文信息,从而不容易在背景上预测出错误的物体信息。...采用 YOLOv2,模型的 mAP 值没有显著提升,但计算量减少了。 ?...相比 YOLOv2YOLOv3 提取最后 3 层特征图,不仅在每个特征图上分别独立做预测,同时通过将小特征图上采样与大的特征图相同大小,然后与大的特征图拼接做进一步预测。...其他 对于对象检测,不仅要考虑精度,还要考虑实时运行的性能,虽然现在算力大幅度上升,但是普通的设备跑起来还是有点吃力。提高精度和加快速率仍是目标检测的重大课题,道阻且长!

    2.9K31

    YOLO 目标检测从 V1 V3 结构详解

    因为没有复杂的检测流程,只需要将图像输入神经网络就可以得到检测结果,YOLO 可以非常快的完成物体检测任务。标准版本的 YOLO 在 Titan X 的 GPU 上能达到 45 FPS。...采用 YOLOv2,模型的 mAP 值没有显著提升,但计算量减少了。 ?...注意,Darknet-53 相比于其它网络结构实现了每秒最高的浮点计算量,说明其网络结构能更好的利用 GPU。 ? 融合 FPN YOLOv3 借鉴了 FPN 的思想,从不同尺度提取特征。...相比 YOLOv2YOLOv3 提取最后 3 层特征图,不仅在每个特征图上分别独立做预测,同时通过将小特征图上采样与大的特征图相同大小,然后与大的特征图拼接做进一步预测。...其他 对于对象检测,不仅要考虑精度,还要考虑实时运行的性能,虽然现在算力大幅度上升,但是普通的设备跑起来还是有点吃力。提高精度和加快速率仍是目标检测的重大课题,道阻且长!

    61430

    目标检测(object detection)扩展系列(三) Faster R-CNN,YOLO,SSD,YOLOv2YOLOv3在损失函数上的区别

    SSD,YOLO,YOLOv2 SSD,YOLO和YOLOv2都是one-stage的结构,没有区域建议,所以它们的分类损失是交叉熵,如果是针对VOC数据集,那么类别应该是20类,针对COCO数据集,...80类的交叉熵是可以实现的,但是YOLOv3用了Logistic+二值交叉熵处理,将一个80分类问题转化为80个二分类问题。...和YOLOv3 YOLO系列的结构中,YOLO是没有Anchor的,YOLO只有格子,YOLOv2YOLOv3带Anchor,但是这并不影响它们边界框中心点的选择,它们的边界框中心都是在预测距离格子左上角点的...特别说明,上图来自《YOLO文章详细解读》 Faster R-CNN,SSD,YOLOv2YOLOv3 Faster R-CNN,SSD,YOLOv2YOLOv3都带Anchor,所以它们对于...YOLO,YOLOv2YOLOv3 YOLO系列在边界框回归损失上用的是L2,并没有参考RPN。 其他损失 最后就是除了分类损失和回归损失外的其他损失函数,主要是起到辅助作用。

    1.6K20

    专栏 | 目标检测算法之YOLOv3及YOLOV3-Tiny

    因此,这一节我们只用关注YOLOv3算法本身,训练的时候将它的损失函数认为和YOLOv2一样就好,Darknet以及很多开源代码都是这样来做的。...残差模型Darknet-53 YOLOv3YOLOv2提出的Darknet-19的基础上引入了残差模块,并进一步加深了网络,改进后的网络有53个卷积层,命名为Darknet-53,网络结构如下: ?...所以YOLOv3一共有9个Anchor,不过被平均分在了3个特征层中,这也实现了多尺度检测。。。一不小心就讲完了? ? 多尺度检测? 上一节讲完了。。。...相比YOLOv2YOLOv3提取最后3层特征图,不仅在每个特征图上分别独立做预测,同时通过将小特征图上采样与大的特征图相同大小,然后与大的特征图拼接做进一步预测。...顺便说一句,目标检测系列的讲解还远远没有结束,不信可以看我公众号work那一栏里面的深度学习里的目标检测学习路线,还有超多坑需要慢慢填!!!如果看到这里,不妨在右下角点个在看吧,谢谢。

    1.5K20

    【目标检测】从YOLOv1YOLOX(理论梳理)

    所以YOLOv1在采用224x224分类模型预训练后,将分辨率增加至448x448,并使用这个高分辨率在检测数据集上finetune。但是直接切换分辨率,检测模型可能难以快速适应高分辨率。...相比YOLOv2YOLOv3提取最后3层特征图,不仅在每个特征图上分别独立做预测,同时通过将小特征图上采样与大的特征图相同大小,然后与大的特征图拼接做进一步预测。...相比于前面几个版本,YOLOv4没有做根本性的创新,只是将很多Tricks添加到了v3版本中,实现了检测速度和精度的最佳权衡。...但是,阅读论文的体验是,YOLOX基本都是在YOLOv3的基础上加以改进,有一些和YOLOv5相重复,与之相比创新点并不是太多。...、一文看懂YOLO v2 5、目标检测|YOLOv2原理与实现(附YOLOv3) 6、目标检测(7)- YOLO V2 7、重温yolo v2 8、YOLO v3详细解读 9、深入浅出Yolo

    2K20

    YOLO目标检测从V1V3结构详解

    因为没有复杂的检测流程,只需要将图像输入神经网络就可以得到检测结果,YOLO 可以非常快的完成物体检测任务。标准版本的 YOLO 在 Titan X 的 GPU 上能达到 45 FPS。...采用 YOLOv2,模型的 mAP 值没有显著提升,但计算量减少了。 ?...注意,Darknet-53 相比于其它网络结构实现了每秒最高的浮点计算量,说明其网络结构能更好的利用 GPU。 ? 融合 FPN YOLOv3 借鉴了 FPN 的思想,从不同尺度提取特征。...相比 YOLOv2YOLOv3 提取最后 3 层特征图,不仅在每个特征图上分别独立做预测,同时通过将小特征图上采样与大的特征图相同大小,然后与大的特征图拼接做进一步预测。...其他 对于对象检测,不仅要考虑精度,还要考虑实时运行的性能,虽然现在算力大幅度上升,但是普通的设备跑起来还是有点吃力。提高精度和加快速率仍是目标检测的重大课题,道阻且长!

    6K30

    YOLO目标检测从V1V3结构详解

    因为没有复杂的检测流程,只需要将图像输入神经网络就可以得到检测结果,YOLO 可以非常快的完成物体检测任务。标准版本的 YOLO 在 Titan X 的 GPU 上能达到 45 FPS。...采用 YOLOv2,模型的 mAP 值没有显著提升,但计算量减少了。 ?...注意,Darknet-53 相比于其它网络结构实现了每秒最高的浮点计算量,说明其网络结构能更好的利用 GPU。 ? 融合 FPN YOLOv3 借鉴了 FPN 的思想,从不同尺度提取特征。...相比 YOLOv2YOLOv3 提取最后 3 层特征图,不仅在每个特征图上分别独立做预测,同时通过将小特征图上采样与大的特征图相同大小,然后与大的特征图拼接做进一步预测。...其他 对于对象检测,不仅要考虑精度,还要考虑实时运行的性能,虽然现在算力大幅度上升,但是普通的设备跑起来还是有点吃力。提高精度和加快速率仍是目标检测的重大课题,道阻且长!

    2.7K30

    汇总 | OpenCV DNN支持的对象检测模型

    可以看出越是分辨率大的对象在高层特征抽象上毕竟容易被预测检测,分辨率小的对象在底层特征会被检测,如果分辨率过小则有可能无法检测,所以SSD对象检测是对微小目标检测效果不佳的对象检测方法,根据使用的特征网络不同可以分为...YOLO对象检测模型 YOLO对象检测模型全称是You Only Look Once,也是一阶段对象检测模型。...最初的YOLO对象检测模型跟SSD对象检测模型相比,它只有一个输出层,无法实现多分辨率特征的预测,虽然速度很快,但是精度不够,后来改进的YOLOv2YOLOv3,YOLOv4都具有多个输出层,实现了多尺度的对象检测...YOLOv2YOLOv3版本模型跟SSD模型之间的输出对比 Faster-RCNN对象检测模型 Faster-RCNN是典型的两阶段对象检测网络,基于RPN实现区域推荐, 网络结构如下: Mask-RCNN...实例分割模型 该模型也是两阶段网络,在输出时候多出了一个实例分割的分支,但是该实例分割严格意义上来说并没有进行上采样,不是pixelwise的实例分割模型,可以看成是blockwise/patch wise

    1.3K20

    杀疯了!YOLO再突破,提速20倍!!

    但是,YOLO仍然有很大的改进空间,例如提高检测精度、加速推理速度、适应不同的场景等。 今天准备了YOLO系列的论文准备好了给大家,分别是 YOLOv1~v9系列 和 YOLO变形系列。...YOLOv1的核心思想是将目标检测问题视为一个回归问题,通过单个卷积神经网络(CNN)实现端端的训练,从而实现快速且准确的目标检测。...抽象特征学习:YOLOv1通过训练学习图像的抽象特征,使其在不同领域的图像上都有很好检测效果,即使在艺术品上测试也能表现出色。...它是YOLO系列算法的第三个版本,旨在实现更快、更准确的目标检测YOLOv3在YOLOv1和YOLOv2的基础上进行了一系列的改进,这些改进旨在提高模型的性能,同时保持其速度和效率。...尽管YOLOv5没有正式的学术论文,但它在GitHub上的开源实现和社区中的活跃讨论使其成为了目标检测领域的一个重要参考。

    45810

    目标检测算法之YOLOv3及YOLOv3-Tiny

    在这里插入图片描述 因此,这一节我们只用关注YOLOv3算法本身,训练的时候将它的损失函数认为和YOLOv2一样就好,Darknet以及很多开源代码都是这样来做的。...残差模型Darknet-53 YOLOv3YOLOv2提出的Darknet-19的基础上引入了残差模块,并进一步加深了网络,改进后的网络有53个卷积层,命名为Darknet-53,网络结构如下: ?...所以YOLOv3一共有9个Anchor,不过被平均分在了3个特征层中,这也实现了多尺度检测。。。一不小心就讲完了? ? 在这里插入图片描述 多尺度检测? 上一节讲完了。。。...相比YOLOv2YOLOv3提取最后3层特征图,不仅在每个特征图上分别独立做预测,同时通过将小特征图上采样与大的特征图相同大小,然后与大的特征图拼接做进一步预测。...顺便说一句,目标检测系列的讲解还远远没有结束,不信可以看我公众号work那一栏里面的深度学习里的目标检测学习路线,还有超多坑需要慢慢填!!!如果看到这里,不妨在右下角点个在看吧,谢谢。

    2K10
    领券