
论文提出的模型主要基于对传统DenseNet架构的改进和复兴,通过一系列创新设计,旨在提升模型性能并优化其计算效率,提出了RDNet模型。该模型的主要特点和改进点:
论文首先强调了DenseNet中连接操作(Concatenation)的重要性,并通过广泛的实验验证了连接操作在性能上能够超越传统的加法快捷连接(Additive Shortcut)。这一发现促使研究者们重新审视并优化DenseNet的连接机制。
为了进一步提升模型性能,论文提出通过调整扩展比(Expansion Ratio, ER)来增大中间张量(Tensor)的尺寸,使其超过输入维度。传统方法中,ER主要用于调整输入和输出维度,但在这篇论文中,ER被重新设计为与输入维度成比例,即ER与增长率(Growth Rate, GR)解耦。这种设计使得在非线性处理之前能够更充分地丰富特征,同时为了管理由此产生的计算需求,将GR减半(例如从120减少到60),从而在不影响准确性的前提下控制计算量。
为了优化DenseNet的架构设计,论文采用了更加内存高效的设计策略,通过丢弃无效组件并增强架构和块设计,同时保持DenseNet的核心连接机制不变。这种设计使得模型在保持高性能的同时,也减少了内存占用,提升了处理大规模数据集的能力。

本文使用RDNet的Block改进YoloV9,改进后的网络涨点明显。即插即用,欢迎大家使用!
完整链接:
https://jingjing.blog.csdn.net/article/details/140699213?spm=1001.2014.3001.5502yolov9-c summary: 582 layers, 30543392 parameters, 0 gradients, 138.3 GFLOPs
Class Images Instances P R mAP50 mAP50-95: 100%|██████████| 29/29 00:06
all 230 1412 0.949 0.98 0.99 0.734
c17 230 131 0.985 0.988 0.995 0.818
c5 230 68 0.933 1 0.995 0.819
helicopter 230 43 0.958 0.953 0.985 0.651
c130 230 85 1 0.982 0.995 0.677
f16 230 57 0.994 0.965 0.969 0.667
b2 230 2 0.846 1 0.995 0.731
other 230 86 0.987 0.889 0.96 0.531
b52 230 70 0.982 0.986 0.986 0.817
kc10 230 62 0.997 0.984 0.988 0.843
command 230 40 0.984 1 0.995 0.796
f15 230 123 0.984 0.992 0.995 0.668
kc135 230 91 0.988 0.989 0.99 0.697
a10 230 27 1 0.867 0.984 0.521
b1 230 20 0.954 1 0.995 0.705
aew 230 25 0.946 1 0.973 0.745
f22 230 17 0.886 1 0.992 0.751
p3 230 105 0.993 0.981 0.995 0.794
p8 230 1 0.717 1 0.995 0.697
f35 230 32 1 0.906 0.99 0.532
f18 230 125 0.989 0.992 0.991 0.825
v22 230 41 0.984 1 0.995 0.688
su-27 230 31 0.989 1 0.995 0.842
il-38 230 27 0.922 1 0.995 0.799
tu-134 230 1 0.774 1 0.995 0.895
su-33 230 2 0.977 1 0.995 0.75
an-70 230 2 0.861 1 0.995 0.75
tu-22 230 98 0.983 1 0.995 0.812