我最近在看深度神经网络的聚集残差变换的报纸。
作者在第5.1节中提到的一件事是,增加基数(或分支数),比增加瓶颈宽度或增加深度更能减少验证错误。我理解深度部分,但我对宽度有点困惑。剩余块的基数不是与瓶颈宽度相同吗?如果没有,那有什么区别呢?
谢谢!
发布于 2019-05-15 07:17:08
就像在增加宽度的InceptionNet中一样,不同的路径是深度级联的,而且每个路径是不同的(即不同路径的过滤大小不同)。
在增加基数的ResNeXt中,不同的路径通过将它们相加在一起进行合并,并且每条路径都是相似的。
阅读本文以获得更多信息,ResNet及其变体综述
https://datascience.stackexchange.com/questions/47559
复制相似问题