博客
关于我
深度学习网络结构汇总
阅读量:544 次
发布时间:2019-03-09

本文共 1137 字,大约阅读时间需要 3 分钟。

LeNet-5是Yann LeCun等人于1998年提出的经典卷积神经网络模型,开创了深度学习在图像识别领域的先河。其创新性在于引入了梯度下降算法,使得深度网络能够有效学习图像特征。

AlexNet由Alex Krizhevsky等人于2012年提出的,标志着深度卷积神经网络进入图像分类的主流。该模型通过卷积层和最大池化层设计,显著提升了分类性能。

ZFNet由Zeiler等人于2010年提出,旨在可视化卷积网络的结构,揭示其内部特征学习机制。该研究为后续深度学习模型的分析奠定了基础。

Network In Network(NIN)由Vincent Later等人于2013年提出,通过局部感受野和1x1卷积卷积层,增强了模型的表达能力。

VGG网络由Karen Simonyan等人于2014年提出,采用多次卷积层以捕捉更丰富的图像特征。其5层和16层版本在ILSVRC竞赛中表现优异。

GoogLeNet(Inception V1)由Szegedy等人于2014年提出,通过Inception模块实现多尺度卷积,减少参数数量而保持性能。其创新性在于将不同尺度的卷积操作结合起来。

Inception V2通过引入Batch Normalization层,解决了深度网络训练中的内部协变量偏移问题,大大加速了训练过程。

Inception V3进一步优化了Inception架构,通过更深的网络结构提升性能,并在多个数据集上取得了优异成绩。

Inception V4和Inception-ResNet结合了残差连接,使得网络更深且性能更佳。残差连接通过跳跃连接解决了梯度消失问题。

ResNet由He等人于2015年提出的深度残差网络,通过跳跃连接实现了更深的网络结构,使得深度学习变得更为实用。

SqueezeNet由Eugene real等人提出,通过压缩卷积核大小实现了轻量级的图像分类模型,参数数量仅为AlexNet的一半。

DenseNet由Huang等人提出,通过密集连接层,增强了特征表达能力,使得网络在图像分类任务中表现更优。

Xception由Chiu等人提出,通过深度可分离卷积实现了更高效的卷积操作。

ResNeXt进一步优化了残差网络,通过聚合残差变换加速网络训练。

PolyNet通过多路径结构设计,探索了深度网络的多样性。

MobileNet由Howard等人提出,设计轻量级卷积层,适合移动设备应用。

ShuffleNet通过分组卷积和稀疏连接,进一步降低了计算复杂度。

DPN提出双路径网络,通过并行结构提升性能。

NASNet通过架构搜索方法,自动设计适合任务的网络结构。

SENet通过压缩激励机制优化网络性能,提升了分类准确率。

转载地址:http://vpqiz.baihongyu.com/

你可能感兴趣的文章
NTP服务器
查看>>
NTP配置
查看>>
NUC1077 Humble Numbers【数学计算+打表】
查看>>
NuGet Gallery 开源项目快速入门指南
查看>>
NuGet(微软.NET开发平台的软件包管理工具)在VisualStudio中的安装的使用
查看>>
nuget.org 无法加载源 https://api.nuget.org/v3/index.json 的服务索引
查看>>
Nuget~管理自己的包包
查看>>
NuGet学习笔记001---了解使用NuGet给net快速获取引用
查看>>
nullnullHuge Pages
查看>>
NullPointerException Cannot invoke setSkipOutputConversion(boolean) because functionToInvoke is null
查看>>
null可以转换成任意非基本类型(int/short/long/float/boolean/byte/double/char以外)
查看>>
Number Sequence(kmp算法)
查看>>
Numix Core 开源项目教程
查看>>
numpy
查看>>
Numpy 入门
查看>>
NumPy 库详细介绍-ChatGPT4o作答
查看>>
NumPy 或 Pandas:将数组类型保持为整数,同时具有 NaN 值
查看>>
numpy 或 scipy 有哪些可能的计算可以返回 NaN?
查看>>
numpy 数组 dtype 在 Windows 10 64 位机器中默认为 int32
查看>>
numpy 数组与矩阵的乘法理解
查看>>