博客
关于我
深度学习网络结构汇总
阅读量:544 次
发布时间:2019-03-09

本文共 1137 字,大约阅读时间需要 3 分钟。

LeNet-5是Yann LeCun等人于1998年提出的经典卷积神经网络模型,开创了深度学习在图像识别领域的先河。其创新性在于引入了梯度下降算法,使得深度网络能够有效学习图像特征。

AlexNet由Alex Krizhevsky等人于2012年提出的,标志着深度卷积神经网络进入图像分类的主流。该模型通过卷积层和最大池化层设计,显著提升了分类性能。

ZFNet由Zeiler等人于2010年提出,旨在可视化卷积网络的结构,揭示其内部特征学习机制。该研究为后续深度学习模型的分析奠定了基础。

Network In Network(NIN)由Vincent Later等人于2013年提出,通过局部感受野和1x1卷积卷积层,增强了模型的表达能力。

VGG网络由Karen Simonyan等人于2014年提出,采用多次卷积层以捕捉更丰富的图像特征。其5层和16层版本在ILSVRC竞赛中表现优异。

GoogLeNet(Inception V1)由Szegedy等人于2014年提出,通过Inception模块实现多尺度卷积,减少参数数量而保持性能。其创新性在于将不同尺度的卷积操作结合起来。

Inception V2通过引入Batch Normalization层,解决了深度网络训练中的内部协变量偏移问题,大大加速了训练过程。

Inception V3进一步优化了Inception架构,通过更深的网络结构提升性能,并在多个数据集上取得了优异成绩。

Inception V4和Inception-ResNet结合了残差连接,使得网络更深且性能更佳。残差连接通过跳跃连接解决了梯度消失问题。

ResNet由He等人于2015年提出的深度残差网络,通过跳跃连接实现了更深的网络结构,使得深度学习变得更为实用。

SqueezeNet由Eugene real等人提出,通过压缩卷积核大小实现了轻量级的图像分类模型,参数数量仅为AlexNet的一半。

DenseNet由Huang等人提出,通过密集连接层,增强了特征表达能力,使得网络在图像分类任务中表现更优。

Xception由Chiu等人提出,通过深度可分离卷积实现了更高效的卷积操作。

ResNeXt进一步优化了残差网络,通过聚合残差变换加速网络训练。

PolyNet通过多路径结构设计,探索了深度网络的多样性。

MobileNet由Howard等人提出,设计轻量级卷积层,适合移动设备应用。

ShuffleNet通过分组卷积和稀疏连接,进一步降低了计算复杂度。

DPN提出双路径网络,通过并行结构提升性能。

NASNet通过架构搜索方法,自动设计适合任务的网络结构。

SENet通过压缩激励机制优化网络性能,提升了分类准确率。

转载地址:http://vpqiz.baihongyu.com/

你可能感兴趣的文章
Nim游戏
查看>>
NIO ByteBuffer实现原理
查看>>
Nio ByteBuffer组件读写指针切换原理与常用方法
查看>>
NIO Selector实现原理
查看>>
nio 中channel和buffer的基本使用
查看>>
NIO三大组件基础知识
查看>>
NIO与零拷贝和AIO
查看>>
NIO同步网络编程
查看>>
NIO基于UDP协议的网络编程
查看>>
NIO笔记---上
查看>>
NIO蔚来 面试——IP地址你了解多少?
查看>>
NISP一级,NISP二级报考说明,零基础入门到精通,收藏这篇就够了
查看>>
NISP国家信息安全水平考试,收藏这一篇就够了
查看>>
NIS服务器的配置过程
查看>>
Nitrux 3.8 发布!性能全面提升,带来非凡体验
查看>>
NiuShop开源商城系统 SQL注入漏洞复现
查看>>
NI笔试——大数加法
查看>>
NLog 自定义字段 写入 oracle
查看>>
NLog类库使用探索——详解配置
查看>>
NLP 基于kashgari和BERT实现中文命名实体识别(NER)
查看>>