Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >YOLOv11 架构改进 & 常见指令

YOLOv11 架构改进 & 常见指令

作者头像
小白学视觉
发布于 2024-10-30 08:23:52
发布于 2024-10-30 08:23:52
93502
代码可运行
举报
运行总次数:2
代码可运行

今天我们介绍 YOLOv11,这个系列中的最新成员。YOLO 是一个在目标检测领域几乎无与伦比的算法,它产生了非常成功的结果。这个算法系列在 YOLOv5 之后由 Ultralytics 继续开发,并且每个新模型都带来了更好的性能。

YOLOv11 是 Ultralytics 开发的最新 YOLO 模型。这个模型在执行实时目标检测时,继续平衡准确性和效率。在之前的 YOLO 版本基础上,YOLO11 在架构和训练上提供了显著的改进。在保持速度的同时提高性能的最重要的架构变化是增加了 C3K2 块、SPFF 模块和 C2PSA 块。

  • C3K2 块:这是在以前版本中引入的 CSP(Cross Stage Partial)块的增强。该模块使用不同的核大小(例如 3x3 或 5x5)和通道分离策略来优化更复杂特征的提取。
  • SPFF(Spatial Pyramid Pooling Fusion)模块:它是 YOLO 版本中使用的 SPP(Spatial Pyramid Pooling)模块的优化版本。该模块允许模型通过捕获不同尺度的物体属性来更好地执行。
  • C2PSA 块:这个块通过结合通道和空间信息提供更有效的特征提取。它还与多头注意力机制一起工作,从而实现对物体更准确的感知。它优化了前一层的特征图,并用注意力机制丰富它们,以提高模型的性能。这种结构使得在复杂场景中更精确的检测成为可能,并提高了 YOLOv11 的准确性。

除了这些架构变化,YOLOv11 像 YOLOv8 一样具有多模型能力。得益于其多模型特性,YOLOv11 可以执行以下任务:

  • 目标检测:在图像中识别和定位物体。
  • 实例分割:检测物体并确定它们的边界。
  • 分类:将图像分类到预定义的类别中。
  • 姿态估计:检测和跟踪人体上的标志点。
  • 定向目标检测(OBB):检测旋转物体以提高灵敏度。

在我们开始使用之前,让我们谈谈新 YOLO 版本带来的特性。

  • 现有的主干结构已经被 C3K2 块替换,以提高特征提取能力。
  • 颈部结构已经用 SPFF 模块改进,以捕获不同大小的物体并更好地检测小物体。
  • 增加了 C2PSA 块,专注于更小或部分遮挡物体中的重要区域。
  • 通过多模型能力增加了任务数量。
  • 更容易适应各种环境,包括边缘设备。
  • 得益于其优化的架构和高效的处理能力,它可以部署在边缘设备、云平台和支持 NVIDIA GPU 的系统上。

由于这些优化和创新,YOLOv11 在实时应用中提供了性能提升。模型运行更快、更准确,提高了目标检测、样本分割和姿态估计等任务的效率。此外,兼容性得到了改善,使模型可以轻松地在不同的平台和硬件上运行(例如云或边缘设备)。在 Ultralytics (详见官网:https://docs.ultralytics.com/models/yolo11/)页面上,当他们评估 YOLOv11 与以前版本相比的性能时,他们发表了以下评论。

随着模型设计的改进,YOLO11m 在使用比 YOLOv8m 少 22% 参数的情况下,在 COCO 数据集上实现了更高的平均精度均值(mAP),使其在不牺牲准确性的情况下具有计算效率。

然而,尽管 YOLOv11 模型的性能很好并且提供了广泛的范围,但在目标检测方面,它并不像 YOLOv10 那样成功。尽管 YOLOv10 有更多的参数,YOLOv11 只实现了微小的差异(+0.1-0.5)的更好性能。在这种情况下,YOLOv10 可能仍然是我们的偏好,因为参数的过剩导致速度损失和成本。

使用 YOLOv11

使用 PyTorch 构建 YOLOv11 模型及其与其他模式的使用简要如下。

步骤 1:首先,我们需要下载 Ultralytics 库。有了这个库,我们可以运行从 YOLOv3 到 YOLOv11 的所有模型。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
pip install ultralytics

步骤 2:如果你只想在一个训练好的模型中进行预测。以下代码就足够了。否则你可以跳过它。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yolo predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'py

步骤 3:如果你说不,我想训练我的模型,你可以选择你想要的模型并下载 .pt 文件。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

步骤 4:然后你需要选择训练数据、训练epoch、图像大小和你的设备。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
train_results = model.train(
    data="coco8.yaml",  # path to dataset YAML
    epochs=100,  # number of training epochs
    imgsz=640,  # training image size
    device="cpu",  # device to run on, i.e. device=0 or device=0,1,2,3 or device=cpu
)

步骤 5:你需要用验证数据评估和测试模型。它将验证数据从训练数据本身中分离出来,对于测试,你只需要提供你想要测试的图像的路径。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
metrics = model.val()

results = model("path/to/image.jpg")
results[0].show()

步骤 6:在最后一步,我们可以导出你的模型,以便以后再次使用。如果你想用你自己的模型进行预测,只需使用步骤-2。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
path = model.export(format="onnx")

YOLOv11 常用操作指令

用你自己的数据训练你的目标检测模型,具有特定的学习率和epoch:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

对于模型验证:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

在 YouTube 视频上测试模型的结果,图像大小为 320:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yolo predict model=yolo11n.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320

使用预训练的分割模型在 YouTube 视频上预测,图像大小为 320:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yolo segment predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320

将你特别训练的模型导出为 .pt 扩展名:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yolo export model=path/to/best.pt format=onnx
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-10-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 小白学视觉 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Yolo11实战改进:一文读懂Yolo11到实战
Yolo11是Ultralytics推出的新一代计算机视觉模型,为YOLO家族树立了新的里程碑。它在对象检测、实例分割、图像分类、姿势估计、定向物体检测和对象跟踪等计算机视觉任务上展现了卓越的性能和准确性,相较于YOLOv8有了显著提升。
AI浩
2024/11/18
2.6K0
Yolo11实战改进:一文读懂Yolo11到实战
YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
YOLOv11的模型配置文件在ultralytics/cfg/models/11中,里面包含目标检测、实例分割、图像分类、关键点/姿态估计以及旋转目标检测,本文以目标检测模型文件为例(其他文件完全一致),详细介绍一下YOLOv11模型文件中各参数的含义。
Limiiiing
2025/03/11
2.3K0
基于YOLO11的工件缺陷检测系统(Python源码+数据集+Pyside6界面)
💡💡💡本文摘要:基于YOLO11的工件表面缺陷智能检测系统,阐述了整个数据制作和训练可视化过程
AI小怪兽
2024/12/25
6090
基于YOLO11的矿井下移动目标检测系统(Python源码+数据集+Pyside6界面)
💡💡💡本文摘要:基于YOLO11的矿井下移动目标检测,阐述了整个数据制作和训练可视化过程
AI小怪兽
2025/01/09
2210
来了,使用YOLOv11目标检测教程
YOLO11 在 2024 年 9 月 27 日的 YOLO Vision 2024 活动中宣布:https://www.youtube.com/watch?v=rfI5vOo3-_A。
小白学视觉
2024/10/10
2.3K0
来了,使用YOLOv11目标检测教程
YOLO11实战:GC10-DET缺陷检测 |多级特征融合金字塔(HS-FPN),助力缺陷检测(2)
💡💡💡本文独家改进:高层筛选特征金字塔网络(HS-FPN),能够刷选出大小目标,增强模型表达不同尺度特征的能力,助力小目标检测
AI小怪兽
2024/12/27
3250
基于YOLO11的水下物体检测系统(Python源码+数据集+Pyside6界面)
💡💡💡本文摘要:基于YOLO11的水下物体检测,阐述了整个数据制作和训练可视化过程
AI小怪兽
2025/03/28
1760
【机器学习】基于YOLOv10实现你的第一个视觉AI大模型
人工智能的终极形态,应该就是“具身机器人”——像人一样有眼睛(视觉)、耳朵(听觉)、嘴巴(语言)、舌头(味觉)、鼻子(嗅觉)等器官,味觉、嗅觉目前没有大的进展,视觉、听觉、语言能力在科学界与工程界已经取得重大突破:
LDG_AGI
2024/08/13
1.5K0
【机器学习】基于YOLOv10实现你的第一个视觉AI大模型
YOLO11教程:如何训练 | 验证 | 测试 自己的数据集源码分享
Ultralytics YOLO11是一款尖端的、最先进的模型,它在之前YOLO版本成功的基础上进行了构建,并引入了新功能和改进,以进一步提升性能和灵活性。YOLO11设计快速、准确且易于使用,使其成为各种物体检测和跟踪、实例分割、图像分类以及姿态估计任务的绝佳选择。
AI小怪兽
2024/10/30
4K0
基于YOLO11的中空圆柱形缺陷检测系统(Python源码+数据集+Pyside6界面)
💡💡💡本文摘要:基于YOLO11的中空圆柱形缺陷检测,在狭窄的中空圆柱形表面(如管道和桶)上进行表面缺陷检测,对工业产品的结构完整性有着极其重要的影响。缺陷检测在建筑检测中扮演着重要角色,能够发现细微的缺陷,从而延长产品的使用寿命。阐述了整个数据制作和训练可视化过程
AI小怪兽
2025/03/24
2000
基于YOLO11的无人机检测系统(Python源码+数据集+Pyside6界面)
💡💡💡本文摘要:基于YOLO11的无人机检测,阐述了整个数据制作和训练可视化过程
AI小怪兽
2025/03/16
1240
YOLO11实战:GC10-DET缺陷检测 | DCNv4二次创新11Detetct,效果秒杀DCNv3、DCNv2
💡💡💡本文独家改进:DCNv4更快收敛、更高速度、更高性能,完美和YOLO11结合,助力涨点
AI小怪兽
2024/12/28
1990
基于YOLO11的茶叶嫩芽检测系统(Python源码+数据集+Pyside6界面)
💡💡💡本文摘要:基于YOLO11的茶叶嫩芽检测,阐述了整个数据制作和训练可视化过程
AI小怪兽
2025/03/25
1770
YOLO11实战:NEU-DET | 一种具有切片操作的SimAM注意力的内容引导注意力(CGA)的混合融合方案
💡💡💡创新点:提出了一种具有切片操作的SimAM注意力,增强小目标特征提取能力 + 基于内容引导注意力(CGA)的混合融合方案
AI小怪兽
2025/01/08
2270
基于yolov11的手语检测 | 附数据集+代码
YOLO11是Ultralytics YOLO系列实时目标检测器的最新迭代,它重新定义了尖端精度、速度和效率的可能性。在以往YOLO版本的令人印象深刻的进步基础上,YOLO11在架构和训练方法上引入了重大改进,使其成为广泛计算机视觉任务的多功能选择。
小白学视觉
2024/12/09
5730
基于yolov11的手语检测 | 附数据集+代码
YOLO11实战:GC10-DET缺陷检测 | 新一代高效可形变卷积DCNv4结合SPPF二次创新
💡💡💡本文独家改进:DCNv4更快收敛、更高速度、更高性能,完美和YOLO11结合,助力涨点
AI小怪兽
2024/12/26
3272
YOLO11遥感小目标车辆性能提升 | 通道转置注意力(CTA),多头通道 | IJCAI-24(一)
💡💡💡通道转置注意力: 与SFA不同,通道转置注意力(CTA)采用了不同的策略,沿着通道维度进行自注意力计算,将通道分成多个头。
AI小怪兽
2024/12/24
2370
YOLO11 全新发布!(原理介绍+代码详见+结构框图)
Ultralytics YOLO11是一款尖端的、最先进的模型,它在之前YOLO版本成功的基础上进行了构建,并引入了新功能和改进,以进一步提升性能和灵活性。YOLO11设计快速、准确且易于使用,使其成为各种物体检测和跟踪、实例分割、图像分类以及姿态估计任务的绝佳选择。
AI小怪兽
2024/10/08
9.1K1
YOLO11创新实战:新颖的多尺度卷积注意力(MSCA)加在网络不同位置的涨点情况 | 创新点如何在自己数据集上高效涨点,解决不涨点掉点等问题
💡💡💡本文解决的问题点:创新点为什么在自己数据集不涨点,甚至出现降点的现象???
AI小怪兽
2024/10/16
1.2K0
基于YOLO11的木材表面缺陷检测系统(Python源码+数据集+Pyside6界面)
💡💡💡本文摘要:基于YOLO11的木材表面缺陷检测,阐述了整个数据制作和训练可视化过程
AI小怪兽
2025/03/13
1310
推荐阅读
Yolo11实战改进:一文读懂Yolo11到实战
2.6K0
YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
2.3K0
基于YOLO11的工件缺陷检测系统(Python源码+数据集+Pyside6界面)
6090
基于YOLO11的矿井下移动目标检测系统(Python源码+数据集+Pyside6界面)
2210
来了,使用YOLOv11目标检测教程
2.3K0
YOLO11实战:GC10-DET缺陷检测 |多级特征融合金字塔(HS-FPN),助力缺陷检测(2)
3250
基于YOLO11的水下物体检测系统(Python源码+数据集+Pyside6界面)
1760
【机器学习】基于YOLOv10实现你的第一个视觉AI大模型
1.5K0
YOLO11教程:如何训练 | 验证 | 测试 自己的数据集源码分享
4K0
基于YOLO11的中空圆柱形缺陷检测系统(Python源码+数据集+Pyside6界面)
2000
基于YOLO11的无人机检测系统(Python源码+数据集+Pyside6界面)
1240
YOLO11实战:GC10-DET缺陷检测 | DCNv4二次创新11Detetct,效果秒杀DCNv3、DCNv2
1990
基于YOLO11的茶叶嫩芽检测系统(Python源码+数据集+Pyside6界面)
1770
YOLO11实战:NEU-DET | 一种具有切片操作的SimAM注意力的内容引导注意力(CGA)的混合融合方案
2270
基于yolov11的手语检测 | 附数据集+代码
5730
YOLO11实战:GC10-DET缺陷检测 | 新一代高效可形变卷积DCNv4结合SPPF二次创新
3272
YOLO11遥感小目标车辆性能提升 | 通道转置注意力(CTA),多头通道 | IJCAI-24(一)
2370
YOLO11 全新发布!(原理介绍+代码详见+结构框图)
9.1K1
YOLO11创新实战:新颖的多尺度卷积注意力(MSCA)加在网络不同位置的涨点情况 | 创新点如何在自己数据集上高效涨点,解决不涨点掉点等问题
1.2K0
基于YOLO11的木材表面缺陷检测系统(Python源码+数据集+Pyside6界面)
1310
相关推荐
Yolo11实战改进:一文读懂Yolo11到实战
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验