博客
关于我
深度学习网络结构汇总
阅读量:544 次
发布时间:2019-03-09

本文共 1137 字,大约阅读时间需要 3 分钟。

LeNet-5是Yann LeCun等人于1998年提出的经典卷积神经网络模型,开创了深度学习在图像识别领域的先河。其创新性在于引入了梯度下降算法,使得深度网络能够有效学习图像特征。

AlexNet由Alex Krizhevsky等人于2012年提出的,标志着深度卷积神经网络进入图像分类的主流。该模型通过卷积层和最大池化层设计,显著提升了分类性能。

ZFNet由Zeiler等人于2010年提出,旨在可视化卷积网络的结构,揭示其内部特征学习机制。该研究为后续深度学习模型的分析奠定了基础。

Network In Network(NIN)由Vincent Later等人于2013年提出,通过局部感受野和1x1卷积卷积层,增强了模型的表达能力。

VGG网络由Karen Simonyan等人于2014年提出,采用多次卷积层以捕捉更丰富的图像特征。其5层和16层版本在ILSVRC竞赛中表现优异。

GoogLeNet(Inception V1)由Szegedy等人于2014年提出,通过Inception模块实现多尺度卷积,减少参数数量而保持性能。其创新性在于将不同尺度的卷积操作结合起来。

Inception V2通过引入Batch Normalization层,解决了深度网络训练中的内部协变量偏移问题,大大加速了训练过程。

Inception V3进一步优化了Inception架构,通过更深的网络结构提升性能,并在多个数据集上取得了优异成绩。

Inception V4和Inception-ResNet结合了残差连接,使得网络更深且性能更佳。残差连接通过跳跃连接解决了梯度消失问题。

ResNet由He等人于2015年提出的深度残差网络,通过跳跃连接实现了更深的网络结构,使得深度学习变得更为实用。

SqueezeNet由Eugene real等人提出,通过压缩卷积核大小实现了轻量级的图像分类模型,参数数量仅为AlexNet的一半。

DenseNet由Huang等人提出,通过密集连接层,增强了特征表达能力,使得网络在图像分类任务中表现更优。

Xception由Chiu等人提出,通过深度可分离卷积实现了更高效的卷积操作。

ResNeXt进一步优化了残差网络,通过聚合残差变换加速网络训练。

PolyNet通过多路径结构设计,探索了深度网络的多样性。

MobileNet由Howard等人提出,设计轻量级卷积层,适合移动设备应用。

ShuffleNet通过分组卷积和稀疏连接,进一步降低了计算复杂度。

DPN提出双路径网络,通过并行结构提升性能。

NASNet通过架构搜索方法,自动设计适合任务的网络结构。

SENet通过压缩激励机制优化网络性能,提升了分类准确率。

转载地址:http://vpqiz.baihongyu.com/

你可能感兴趣的文章
nodejs 运行CMD命令
查看>>
nodejs-mime类型
查看>>
NodeJs——(11)控制权转移next
查看>>
NodeJS、NPM安装配置步骤(windows版本)
查看>>
NodeJS、NPM安装配置步骤(windows版本)
查看>>
nodejs与javascript中的aes加密
查看>>
nodejs中Express 路由统一设置缓存的小技巧
查看>>
Nodejs中的fs模块的使用
查看>>
nodejs包管理工具对比:npm、Yarn、cnpm、npx
查看>>
NodeJs单元测试之 API性能测试
查看>>
nodejs图片转换字节保存
查看>>
nodejs字符与字节之间的转换
查看>>
NodeJs学习笔记001--npm换源
查看>>
NodeJs学习笔记002--npm常用命令详解
查看>>
nodejs学习笔记一——nodejs安装
查看>>
nodejs封装http请求
查看>>
nodejs常用组件
查看>>
nodejs开发公众号报错 40164,白名单配置找不到,竟然是这个原因
查看>>
Nodejs异步回调的处理方法总结
查看>>
NodeJS报错 Fatal error: ENOSPC: System limit for number of file watchers reached, watch ‘...path...‘
查看>>