Densely Connected Convolutional Networks¶
论文¶
https://arxiv.org/abs/1608.06993
代码¶
https://github.com/liuzhuang13/DenseNet.
摘要¶
Cite
最近的研究表明,如果卷积网络在靠近输入的层和靠近输出的层之间包含较短的连接,则卷积网络可以更深入、更准确、更有效地训练。在本文中,我们接受了这一观察, 并介绍了密集卷积网络(DenseNet),它以前馈方式将每一层连接到其他每一层。而具有L层的传统卷积网络在每一层与其后续层之间具有L个连接, 我们的网络具有\(\frac{L(L+1)}{2}\)个直接连接。对于每个层,所有先前层的特征图都用作输入,其自身的特征图用作所有后续层的输入。 DenseNet具有几个组合优势:它们缓解了消失的梯度问题,加强了特征传播,鼓励了特征重用,并大大减少了参数的数量。 我们在四个竞争激烈的目标识别基准任务(CIFAR-10、CIFAR-100、SVHN和ImageNet)上评估了我们提出的架构。DenseNet在大多数方面都比最先进的技术有显著的改进, 同时需要更少的计算才能实现高性能。代码和预训练模型可在https://github.com/liuzhuang13/DenseNet.
工作¶