一场年度盛会,一次版本突袭,人工智能领域的升级节奏再次被刷新
伦敦时间9月25日,YOLO Vision 2025(YV25)混合盛会如期举行。全场观众屏息凝神,等待传闻中的Ultralytics YOLO14登场。然而,当Ultralytics创始人兼首席执行官格伦·乔彻(Glenn Jocher)走上讲台时,他带来的不是YOLO14,而是版本号直接跳至Ultralytics YOLO26!
这一跨越式发布和前不久苹果iOS 18到iOS 26一样,让人大吃一惊。更令人意外的是,这一新模型目前尚未正式发布,仅提供了性能预览,预计将于10月下旬公开发布。
在YV25上,Glenn Jocher也解释为什么是YOLO26?他们其实也是参考了苹果公司的命名思路。一方面是为了多系统,多模型的对齐,另一方面也是发布时间,正如苹果解释的那样“以 iOS 26 来说,虽然是在 2025 年推出,照理应该要叫 iOS 25,但是考量到整个系统大部分的使用时间会落在 2026 年,所以就命名为 iOS 26,其他系统也是。”所以这就是 YOLO26 的命名原因。
但核心性能是否又升级呢? 正如 Glenn Jocher 在所说:“最大的挑战之一就是确保用户能够最大限度地利用YOLO26,同时还能提供最佳性能。” 这句话或许揭示了YOLO版本号的跃升会和苹果一样:YOLO26并非简单迭代,而是一次架构层面的重构与革新。
目前,YOLO26模型仍在润色中,性能数据也仅为初步结果。这提醒我们,在看到10月下旬最终发布前,这些性能指标可能还会调整。
使用YOLO26检测图像中物体的示例
根据Ultralytics官方提供的数据中我们可以粗略了解到YOLO26延续了YOLO系列的一贯优势,同时在三个方面实现了显著提升。
通过移除分布焦点损失(DFL)模块,简化了模型设计,这一改进直接提升了推理速度并优化了边界框回归。DFL模块虽然有效,但往往会使导出复杂化并限制硬件兼容性,YOLO26将其完全取消后,显著扩大了对边缘和低功耗设备的支持。
创新性地引入了端到端推理选项,使模型能够跳过传统的非最大值抑制(NMS)步骤。这一突破性方法由清华大学的王敖在YOLOv10中首创,并在YOLO26中得到进一步发展。端到端设计省去了管道的整个阶段,降低复杂性,加快结果输出。
引入渐进损失平衡(ProgLoss) 和小目标感知标签分配(STAL),显著提升训练稳定性和小目标检测准确率。这些改进让YOLO26在小型物体上实现了更高的精度,这对于物联网、机器人、航空图像等边缘应用至关重要。
最具说服力的是数据——YOLO26的最小版本nano型号在标准CPU上的运行速度比前代提高了43%,特别适合移动应用和边缘设备。考虑到目前这只是官方预览数据,实际发布时的性能表现更值得期待。
YOLO26将提供五种不同型号(n、s、m、l、x),满足从边缘设备到企业级系统的各种需求。无论选择哪种规格,YOLO26都支持全面的计算机视觉任务:
下表展示了YOLO26各型号的基准测试结果(基于官方博客数据):
YOLO26的部署灵活性令人印象深刻:支持TensorRT、ONNX、CoreML、TFLite和OpenVINO等多种导出格式,几乎覆盖所有主流平台。
特别值得一提的是其量化能力:YOLO26支持INT8部署和半精度推理,在减小模型大小、提高速度的同时,将精度损失降到最低。得益于其简化的架构,YOLO26可以很好地处理量化,在这些量化级别上都能提供一致的性能。
YOLO26的性能提升在实际应用中意义重大。
由于其“更好、更快、更轻”的特性,YOLO26能轻松适配从轻型边缘设备到大型企业系统的各种环境,成为行业提升效率、准确性和可靠性的实用选择。
YOLO26将于10月底公开发布,届时开发者将能亲身体验这一跨越式升级的性能表现。这次版本号的突袭跃升,不仅展示了Ultralytics的技术实力,更预示着计算机视觉领域即将迎来新一轮创新浪潮。
同样的Coovally平台也会同步更新YOLO26,让用户第一时间体验最新模型,更多精彩咨询记得持续关注哦~
需要注意的是,目前我们看到的只是官方博客的预览数据,真正的性能测试还需等待正式版本发布。但毫无疑问,YOLO26已经向世人展示了一个清晰的愿景:视觉AI的未来属于更轻量化、更智能、更普惠的模型。
人工智能的发展速度,再次超出了所有人的预期。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。