博客
关于我
深度学习网络结构汇总
阅读量:544 次
发布时间:2019-03-09

本文共 1137 字,大约阅读时间需要 3 分钟。

LeNet-5是Yann LeCun等人于1998年提出的经典卷积神经网络模型,开创了深度学习在图像识别领域的先河。其创新性在于引入了梯度下降算法,使得深度网络能够有效学习图像特征。

AlexNet由Alex Krizhevsky等人于2012年提出的,标志着深度卷积神经网络进入图像分类的主流。该模型通过卷积层和最大池化层设计,显著提升了分类性能。

ZFNet由Zeiler等人于2010年提出,旨在可视化卷积网络的结构,揭示其内部特征学习机制。该研究为后续深度学习模型的分析奠定了基础。

Network In Network(NIN)由Vincent Later等人于2013年提出,通过局部感受野和1x1卷积卷积层,增强了模型的表达能力。

VGG网络由Karen Simonyan等人于2014年提出,采用多次卷积层以捕捉更丰富的图像特征。其5层和16层版本在ILSVRC竞赛中表现优异。

GoogLeNet(Inception V1)由Szegedy等人于2014年提出,通过Inception模块实现多尺度卷积,减少参数数量而保持性能。其创新性在于将不同尺度的卷积操作结合起来。

Inception V2通过引入Batch Normalization层,解决了深度网络训练中的内部协变量偏移问题,大大加速了训练过程。

Inception V3进一步优化了Inception架构,通过更深的网络结构提升性能,并在多个数据集上取得了优异成绩。

Inception V4和Inception-ResNet结合了残差连接,使得网络更深且性能更佳。残差连接通过跳跃连接解决了梯度消失问题。

ResNet由He等人于2015年提出的深度残差网络,通过跳跃连接实现了更深的网络结构,使得深度学习变得更为实用。

SqueezeNet由Eugene real等人提出,通过压缩卷积核大小实现了轻量级的图像分类模型,参数数量仅为AlexNet的一半。

DenseNet由Huang等人提出,通过密集连接层,增强了特征表达能力,使得网络在图像分类任务中表现更优。

Xception由Chiu等人提出,通过深度可分离卷积实现了更高效的卷积操作。

ResNeXt进一步优化了残差网络,通过聚合残差变换加速网络训练。

PolyNet通过多路径结构设计,探索了深度网络的多样性。

MobileNet由Howard等人提出,设计轻量级卷积层,适合移动设备应用。

ShuffleNet通过分组卷积和稀疏连接,进一步降低了计算复杂度。

DPN提出双路径网络,通过并行结构提升性能。

NASNet通过架构搜索方法,自动设计适合任务的网络结构。

SENet通过压缩激励机制优化网络性能,提升了分类准确率。

转载地址:http://vpqiz.baihongyu.com/

你可能感兴趣的文章
npm设置淘宝镜像、升级等
查看>>
npm设置源地址,npm官方地址
查看>>
npm配置安装最新淘宝镜像,旧镜像会errror
查看>>
NPM酷库052:sax,按流解析XML
查看>>
npm错误 gyp错误 vs版本不对 msvs_version不兼容
查看>>
npm错误Error: Cannot find module ‘postcss-loader‘
查看>>
npm,yarn,cnpm 的区别
查看>>
NPOI之Excel——合并单元格、设置样式、输入公式
查看>>
NPOI初级教程
查看>>
NPOI利用多任务模式分批写入多个Excel
查看>>
NPOI在Excel中插入图片
查看>>
NPOI将某个程序段耗时插入Excel
查看>>
NPOI格式设置
查看>>
NPOI设置单元格格式
查看>>
Npp删除选中行的Macro录制方式
查看>>
NR,NF,FNR
查看>>
nrf24l01+arduino
查看>>
nrf开发笔记一开发软件
查看>>
nrm —— 快速切换 NPM 源 (附带测速功能)
查看>>
nrm报错 [ERR_INVALID_ARG_TYPE]
查看>>