[深度学习-总结]Deep learning中8大模型介绍与比较(LeNet5,AlexNet,VGG,Inception,MobileNets,ResNet,DenseNet,Senet)

76 篇文章 20 订阅
订阅专栏

0. CNN 结构演化

在这里插入图片描述
上图所示是刘昕博士总结的CNN结构演化的历史,起点是神经认知机模型,此时已经出现了卷积结构,经典的LeNet诞生于1998年。然而之后CNN的锋芒开始被SVM等手工设计的特征盖过。随着ReLU和dropout的提出,以及GPU和大数据带来的历史机遇,CNN在2012年迎来了历史突破–AlexNet.

1. LeNet5

LeNet5不是CNN的起点,但却是它的hello world,让大家看到了卷积神经网络商用的前景。
一共2层 (2个卷积层+2个全连接层+1个softmax层)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2. AlexNet

AlexNet是CNN向大规模商用打响的第一枪,夺得ImageNet 2012年分类冠军,宣告神经网络的王者归来。也是在那年之后,更多的更深的神经网路被提出,比如优秀的vgg,GoogleLeNet.

它们都有着简单而又优雅的结构,同出一门。诠释了增加深度是如何提高了深度学习模型的性能。详细解读如下:
在这里插入图片描述
如上图所示,上图采用是两台GPU服务器,所有会看到两个流程图
输入Input的图像规格: 224x224x3(RGB图像),实际上会经过预处理变为227x227x3

计算Feature Map的公式
O u t p u t S i z e = ( I n p u t S i z e + P a d ∗ 2 − K e r n a l S i z e ) S t r i d e + 1 OutputSize=\frac{(InputSize + Pad * 2 - KernalSize)} {Stride} + 1 OutputSize=Stride(InputSize+Pad2KernalSize)+1

在这里插入图片描述
在这里插入图片描述
相比于Lenet5, AlexNet 优势在于

  1. 网络增大(5个卷积层+3个全连接层+1个softmax层)
  2. 同时解决过拟合(dropout,data augmentation,LRN),
  3. 并且利用多GPU加速计算

LRN: Local Responce Normalization – 本质上,这个层也是为了防止激活函数的饱和的。

参考资料
ImageNet https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf

3. VGG

本篇将介绍VGG16网络的基本结构。VGG16网络是14年牛津大学计算机视觉组和Google DeepMind公司研究员一起研发的深度网络模型。该网络一共有16个训练参数的网络,它的兄弟版本如下图所示,清晰的展示了每一级别的参数量,从11层的网络一直到19层的网络。VGG16网络取得了ILSVRC 2014比赛分类项目的第2名,定位项目的第1名。VGGNet网络结构简洁,迁移到其他图片数据上的泛化性能非常好。VGGNet现在依然经常被用来提取图像特征,该网络训练后的模型参数在其官网上开源了,可以用来在图像分类任务上进行在训练,即:提供了非常好的初始化权重,使用较为广泛。贴出论文地址 论文:
在这里插入图片描述

  • VGG16包含了16个隐藏层(13个卷积层和3个全连接层),如上图中的D列所示
  • VGG19包含了19个隐藏层(16个卷积层和3个全连接层),如上图中的E列所示
    VGG网络的结构非常一致,从头到尾全部使用的是3x3的卷积和2x2的max pooling。

从表一可知:VGGNet有5段卷积层,每一段内有2个或3个卷积层,每段结尾连接一个最大池化层用于缩小图片尺寸;各段内部的卷积核数量一样,越靠近全连接层卷积核数量越多。表二可知:每段卷积核数量一样,越靠近全连接层卷积核数量越多,相应的图片尺寸越小。
在这里插入图片描述
在这里插入图片描述

VGG优缺点
VGG优点
VGGNet的结构非常简洁,整个网络都使用了同样大小的卷积核尺寸(3x3)和最大池化尺寸(2x2)。
几个小滤波器(3x3)卷积层的组合比一个大滤波器(5x5或7x7)卷积层好:
验证了通过不断加深网络结构可以提升性能。

VGG缺点
VGG耗费更多计算资源,并且使用了更多的参数(这里不是3x3卷积的锅),导致更多的内存占用(140M)。其中绝大多数的参数都是来自于第一个全连接层。VGG可是有3个全连接层啊!

简单来说,在VGG中,使用了3个3x3卷积核来代替7x7卷积核,使用了2个3x3卷积核来代替5*5卷积核,这样做的主要目的是在保证具有相同感知野的条件下,提升了网络的深度,在一定程度上提升了神经网络的效果。

为什么使用2个3x3卷积核可以来代替5*5卷积核

5x5卷积看做一个小的全连接网络在5x5区域滑动,我们可以先用一个3x3的卷积滤波器卷积,然后再用一个全连接层连接这个3x3卷积输出,这个全连接层我们也可以看做一个3x3卷积层。这样我们就可以用两个3x3卷积级联(叠加)起来代替一个 5x5卷积。

具体如下图所示:

2个3x3和5x5
至于为什么使用3个3x3卷积核可以来代替7*7卷积核,推导过程与上述类似,大家可以自行绘图理解。
在这里插入图片描述
同样的, 3个步长为1的3x3卷积核的一层层叠加作用可看成一个大小为7的感受野(其实就表示3个3x3连续卷积相当于一个7x7卷积)
3个3X3的卷积的参数为 3x3x3=27
而7X7的卷积的参数和是7x7=49
即减少了参数;而且3x3卷积核有利于更好地保持图像性质。

4. 1*1卷积

11卷积本身只是NN卷积的卷积核大小退化为1时的特例,但是由于它以较小的计算代价增强了网络的非线性表达能力,给网络结构在横向和纵向拓展提供了非常好的工具,常用于升维和降维操作,尤其是在深层网络和对计算效率有较高要求的网络中广泛使用。

在这里插入图片描述

5. Inception – GoogLeNet

GoogLeNet夺得ImageNet2014年分类冠军,也被称为Inception V1。Inception V1有22层深,参数量为5M。

与VGG不同的是,GoogLeNet做了更大胆的网络上的尝试,为了获得高质量的模型,它也从增加模型的深度(层数)或者是其宽度(层核或者神经元数)这两方面考虑了,但是在这种思路下会出现两个缺陷(1.参数太多,容易过拟合,若训练数据集有限;2.网络越大计算复杂度越大,难以应用;3.网络越深,梯度越往后穿越容易消失,难以优化模型)。而GoogLeNet通过新的结构设计,在增加深度和宽度的同时避免了以上问题:

1.深度

GoogLeNet采用了22层网络,为了避免上述提到的梯度消失问题,GoogLeNet巧妙的在不同深度处增加了两个loss来保证梯度回传消失的现象。结构如图1所示:

在这里插入图片描述
在这里插入图片描述
论文中提到这两个辅助 softmax 分类器的损失函数(Loss Function)在计算总的损失是需要添加一个衰减系数,文中给出的是 0.3 。在进行实际推断( inference)时,需要把这两个辅助 softmax 分类器丢弃

2.宽度

问题的提出

图像中突出部分的大小差别很大。例如,狗的图像可以是以下任意情况。每张图像中狗所占区域都是不同的。
在这里插入图片描述
从左到右:狗占据图像的区域依次减小

  • 由于信息位置的巨大差异,为卷积操作选择合适的卷积核大小就比较困难。信息分布更全局性的图像偏好较大的卷积核,信息分布比较局部的图像偏好较小的卷积核。
  • 非常深的网络更容易过拟合。将梯度更新传输到整个网络是很困难的。
  • 简单地堆叠较大的卷积层非常消耗计算资源。
解决方案

为什么不在同一层级上运行具备多个尺寸的滤波器呢?网络本质上会变得稍微「宽一些」

Inception的网络,由11卷积,33卷积,55卷积,33最大池化四个并行通道运算结果进行融合 ,一方面增加了网络的width,另一方面增加了网络对尺度的适应性,但是如果简单的将这些应用到feature map上的话,concat起来的feature map厚度将会很大,所以为了避免这一现象提出的inception具有如下结构,在3x3前,5x5前,max pooling后分别加上了1x1的卷积核起到了降低feature map厚度的作用,这也使得虽然googlenet有22层但是参数个数要少于alexnet和vgg。inception的具体结构如图2所示。

在这里插入图片描述

总结

综上所述,vgg网络更简单粗暴,在Alexnet的基础上不停地加卷基层,扩展神经网络的深度,并且取得了较好的效果,也让人们认识到加深网络是提高模型质量的一个有效途径。但它同时也面临着参数太多,训练较慢,梯度消失等问题。而GoogLeNet则通过增加在不同层算loss和提出inception结构两种方式,不仅加深了网络,同时也加宽了网络,并且减少了参数个数

参考资料
一文概览Inception家族的「奋斗史」
https://arxiv.org/pdf/1409.4842v1.pdf

6. MobileNets

脱胎于Xception的网络结构MobileNets使用Depthwise Separable Convolution(深度可分离卷积)构建了轻量级的28层神经网络,成为了移动端上的高性能优秀基准模型。
一个depthwise convolution,专注于该通道内的空间信息,一个pointwise convolution,专注于跨通道的信息融合,两者共同努力,然后强大,在此基础上的一系列模型如shufflenet等都是后话。
在这里插入图片描述
在这里插入图片描述
我们可以看到它由33的通道分组卷积(depthwise separable convolution)加11的普通卷积(point wise convolution)组成。它的组成结构本质上就是Xception结构,如下图。

7. ResNet

ResNet(Residual Neural Network)由微软研究院的Kaiming He等四名华人提出,通过使用ResNet Unit成功训练出了152层的神经网络,并在ILSVRC2015比赛中取得冠军,在top5上的错误率为3.57%,同时参数量比VGGNet低,效果非常突出。ResNet的结构可以极快的加速神经网络的训练,模型的准确率也有比较大的提升。同时ResNet的推广性非常好甚至可以直接用到InceptionNet网络中。

在这里插入图片描述

ResNet的主要思想是在网络中增加了直连通道,即Highway Network的思想。此前的网络结构是性能输入做一个非线性变换,而Highway Network则允许保留之前网络层的一定比例的输出。ResNet的思想和Highway Network的思想也非常类似,允许原始输入信息直接传到后面的层中,如下图所示。
在这里插入图片描述

创新点

提出残差学习的思想。传统的卷积网络或者全连接网络在信息传递的时候或多或少会存在信息丢失,损耗等问题,同时还有导致梯度消失或者梯度爆炸,导致很深的网络无法训练。ResNet在一定程度上解决了这个问题,通过直接将输入信息绕道传到输出,保护信息的完整性,整个网络只需要学习输入、输出差别的那一部分,简化学习目标和难度。VGGNet和ResNet的对比如下图所示。ResNet最大的区别在于有很多的旁路将输入直接连接到后面的层,这种结构也被称为shortcut或者skip connections。

网络结构

在ResNet网络结构中会用到两种残差模块,一种是以两个33的卷积网络串接在一起作为一个残差模块,另外一种是11、33、11的3个卷积网络串接在一起作为一个残差模块。他们如下图所示。

在这里插入图片描述
主要代码实现

def block1(x, filters, kernel_size=3, stride=1,
           conv_shortcut=True, name=None):
    bn_axis = 3

    if conv_shortcut is True:
        shortcut = layers.Conv2D(4 * filters, 1, strides=stride,
                                 name=name + '_0_conv')(x)
        shortcut = layers.BatchNormalization(axis=bn_axis, epsilon=1.001e-5,
                                             name=name + '_0_bn')(shortcut)
    else:
        shortcut = x

    x = layers.Conv2D(filters, 1, strides=stride, name=name + '_1_conv')(x)
    x = layers.BatchNormalization(axis=bn_axis, epsilon=1.001e-5,
                                  name=name + '_1_bn')(x)
    x = layers.Activation('relu', name=name + '_1_relu')(x)

    x = layers.Conv2D(filters, kernel_size, padding='SAME',
                      name=name + '_2_conv')(x)
    x = layers.BatchNormalization(axis=bn_axis, epsilon=1.001e-5,
                                  name=name + '_2_bn')(x)
    x = layers.Activation('relu', name=name + '_2_relu')(x)

    x = layers.Conv2D(4 * filters, 1, name=name + '_3_conv')(x)
    x = layers.BatchNormalization(axis=bn_axis, epsilon=1.001e-5,
                                  name=name + '_3_bn')(x)

    x = layers.Add(name=name + '_add')([shortcut, x])
    x = layers.Activation('relu', name=name + '_out')(x)
    return x

参考资料
https://arxiv.org/pdf/1512.03385v1.pdf

8. DenseNet(密集连接卷积神经网络)

进一步利用快捷连接,将所有层直接连接在一起。在这种新型架构中,每层的输入由所有之前层的特征映射组成,其输出将传输给每个后续层。这些特征映射通过深度级联聚合。

DenseNet和ResNet的一个明显区别是,ResNet是求和,而DenseNet是做一个拼接,每一层网络的输入包括前面所有层网络的输出。第L层的输入等于K x (L-1) + k0,其中k是生长率,表示每一层的通道数,比如下图网络的通道数为4。

DenseNet提升了信息和梯度在网络中的传输效率,每层都能直接从损失函数拿到梯度,并且直接得到输入信号,这样就能训练更深的网络,这种网络结构还有正则化的效果。其他网络致力于从深度和宽度来提升网络性能,
DenseNet致力于从特征重用的角度来提升网络性能
在这里插入图片描述
在这里插入图片描述
上面图中的结构是一个dense block,下图的结构是一个完整的dense net,包括3个dense block。可以发现在block之间没有dense连接,因为在pooling操作之后,改变了feature maps的大小,这时候就没法做dense 连接了。在两个block之间的是transition layer ,包括了conv ,pool,在实验中使用的是BN,(1x1 conv),(2x2 avg pool)。

这种结构的好处是可以缓解梯度消失,省参数省计算,特征重用可以起到抗过拟合的作用。达到相同的精度,dense net只需要res net一半的参数和一半的计算量。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
关键代码
Con_block 对应与图中的Dense block.
Transition_bock 对应与图中连接两Dense Block 网络

def transition_block(x, reduction, name):
    x = layers.BatchNormalization(axis=3, epsilon=1.001e-5,name=name + '_bn')(x)
    x = layers.Activation('relu', name=name + '_relu')(x)
    filter = x.shape[3]
    x = layers.Conv2D(int(filter*reduction), 1,use_bias=False,name=name + '_conv')(x)
    x = layers.AveragePooling2D(2, strides=2, name=name + '_pool')(x)
    return x

def conv_block(x, growth_rate, name):
    x1 = layers.BatchNormalization(axis=3, epsilon=1.001e-5)(x)
    x1 = layers.Activation('relu')(x1)
    x1 = layers.Conv2D(2 * growth_rate, 1,use_bias=False, name=name + '_1_conv')(x1)
    x1 = layers.BatchNormalization(axis=3, epsilon=1.001e-5)(x1)
    x1 = layers.Activation('relu', name=name + '_1_relu')(x1)
    x1 = layers.Conv2D(growth_rate, 3 ,padding='same',use_bias=False, name=name + '_2_conv')(x1)
    x = layers.Concatenate( name=name + '_concat')([x, x1])
    return x

优点

  • 由于密集连接方式,DenseNet提升了梯度的反向传播,使得网络更容易训练。由于每层可以直达最后的误差信号,实现了隐式的“deep
    supervision”;
  • 参数更小且计算更高效,这有点违反直觉,由于DenseNet是通过concat特征来实现短路连接,实现了特征重用,并且采用较小的growth
    rate,每个层所独有的特征图是比较小的;
  • 由于特征复用,最后的分类器使用了低级特征。

参考资料
https://arxiv.org/pdf/1608.06993.pdf

9. Senet – (Squeeze-Excitation )

学习每一层的通道之间的关系

首先是 Squeeze 操作,我们顺着空间维度来进行特征压缩,将每个二维的特征通道变成一个实数,这个实数某种程度上具有全局的感受野,并且输出的维度和输入的特征通道数相匹配。它表征着在特征通道上响应的全局分布,而且使得靠近输入的层也可以获得全局的感受野,这一点在很多任务中都是非常有用的。

其次是 Excitation 操作,它是一个类似于循环神经网络中门的机制。通过参数 w 来为每个特征通道生成权重,其中参数 w 被学习用来显式地建模特征通道间的相关性。

最后是一个 Reweight 的操作,我们将 Excitation 的输出的权重看做是进过特征选择后的每个特征通道的重要性,然后通过乘法逐通道加权到先前的特征上,完成在通道维度上的对原始特征的重标定。
在这里插入图片描述
代码实现

def senet_block(inputs, ratio):
    shape = inputs.shape
    channel_out = shape[-1]
    # (2, 28, 28, 32) , [1,28,28,1], [1,28,28,1]
    squeeze = layers.GlobalAveragePooling2D()(inputs)
    # [2, 1, 1, 32]
    # 第二层,全连接层
    # [2,32]
    shape_result = layers.Flatten()(squeeze)
    # [32,2]
    shape_result = layers.Dense(int(channel_out / ratio), activation='relu', use_bias=False)(shape_result)
    # [2,32]
    shape_result = layers.Dense(channel_out, activation='sigmoid', use_bias=False)(shape_result)

    # 第四层,点乘
    excitation_output = tf.reshape(shape_result, [-1, 1, 1, channel_out])
    scale = inputs* excitation_output
    return scale

参考资料
https://arxiv.org/pdf/1709.01507.pdf

主流的25个深度学习模型
angciyu的博客
08-19 3万+
深度学习发展很快,新的模型层出不穷,所以要想全部列举是不可能的。另外,很多模型都是这里提出很长很长时间了,所以也不是说“老”模型就没用,大家学习的话,还是要全面而深入的学习。 1、 Feed forward neural networks (FF or FFNN) and perceptrons (P) 前馈神经网络和感知机,信息从前(输入)往后(输出)流动,一般用反向传播(BP)来训练...
深度学习模型及其应用研究
05-09
国科学院博士论文,围绕深度学习开展了一系列创新研究,针对现有模型结构设计方面的不足,提出了多种新型模型能够更有效地用于计算机视觉与模式识别等领域的多个任务。
人工智能深度学习100种网络模型,精心整理,全网最全,PyTorch框架逐一搭建
weixin_42878111的博客
06-03 9804
大家好,我是微学AI,今天给大家介绍一下人工智能深度学习100种网络模型,这些模型可以用PyTorch深度学习框架搭建。模型按照个人学习顺序进行排序
深度学习模型汇总 (matlab |deeplearning designer) 第一部分
07-16
预训练模型包含(注意由于文件巨大被分为了三部分) AlexNet(part1) Darknet_19(part1) Darknet_53 (part1) DenseNet_201(part1) EfficientNet_b0 Inception_ResNet_v2 Inception_v3 LeNet LeNet_Places365 mobileNet_v2 NasNet_large NasNet_mobile ResNet_18 ResNet_50 ResNet_101 shuffleNet VGG_16 VGG_19 Xception 其:所有模型变量储存在其对应名字的mat文件夹,加载后模型变量皆为:net,matlab版本越高所支持其模型越多,在matlab deep learning toolbox深度网络编辑器从工作区导入可以根据自己的需求进一步进行改进。 模型详细内容解释参考:https://blog.csdn.net/m0_47787372/article/details/125774554?spm=1001.2014.3001.5501
轻松了解深度学习的几大模型
最新发布
人工智能讲师分享前沿技术
04-23 1061
这时,如果你有一个特别的记忆系统,能够让你记住长期的重要信息,同时更新短期的细节,那么这个案件对你来说就会容易得多。随着时间的推移,你不断改进你的作品,而你的对手也不断提高他的鉴别能力。在传统的RNN,信息是单向传递的,随着时间的推移,早期的信息可能会逐渐丢失,导致网络难以捕捉长期依赖。生成器的任务是生成新的数据样本,比如图片、音频或文本,而判别器的任务是判断这些数据样本是真实的还是生成器生成的。在收缩路径,网络逐步减小特征图的分辨率,同时增加特征图的通道数,这使得网络能够捕捉到图像的上下文信息。
深度学习最常见的 26 个模型汇总,请务必掌握!
weixin_33671935的博客
12-17 1万+
点击上方“AI有道”,选择“置顶”公众号重磅干货,第一时间送达本文转载自公众号:AI部落联盟(AI_Tribe)本文首先从4个方面(张量、生成模型、序列学习、深度强化学习...
深度学习模型列举
zhangzhechun的专栏
03-17 5070
生成对抗网络(Generative Adversarial Networks,GAN):由生成器和判别器两部分组成,用于生成能够欺骗判别器的假样本,主要应用于图像、视频、音频等生成任务。它可以学习序列的上下文信息,能够自动捕捉输入数据的长期依赖性。自编码器(Autoencoder,AE):一种无监督学习模型,用于数据压缩、去噪和特征提取等任务,能够学习输入数据的低维表示。除了上述模型,还有很多其他的深度学习模型,如Transformer、BERT、GPT等,它们在自然语言处理领域应用广泛。
常见的深度学习模型
hellozhxy的博客
03-13 689
在实际应用,每个分支都有大量的著名的变种模型。万变不离其宗,了解了基本原理和设计思想,就能够更容易理解各个变种模型的妙处以及适用场景。
深度学习模型框架的简单介绍(ChatGPT背后原理的基本介绍
weixin_42529594的博客
02-07 1万+
介绍ChatGPT背后,简单介绍整个大规模预训练语言模型的发展历程。
深度学习分类模型
Douhaoyu的博客
08-16 1783
深度学习分类模型
深度学习网络模型汇总
青梅煮酒的专栏
09-18 6107
发展历史 1998 LeNet 2012 AlexNet 1.使用了Relu激活函数 2.标准化 3.Dropout •数据增强 VGG Inception GoogLeNet 5阶段,共9个inceptionInception-BN(v2)—使⽤批量归⼀化 Inception-V3—修改了inception块 替换5x5成多个3x3卷积层 替换5x5成1x7和7x1卷积层 替换3x3成...
Deep-Learning-Coursera:该存储库包含Andrew Ng的“深度学习”专业课程的编程任务。 它涉及以下概念。 DNN,超参数调整,正则化,优化,CNN(LeNet5AlexNetVGGResNetInception Network),转移学习(神经样式转移),RNN(LSTM,GRU)和结构化机器学习项目
05-18
DNN-深层神经网络,超参数调整,正则化,优化,CNN-卷积神经网络(LeNet5AlexNetVGGResNetInception网络),转移学习(神经样式转移),RNN(LSTM,GRU)和结构化机器学习项目。 请避免使用代码来提交课程...
Matlab-Deep Learning Toolbox
04-08
Deep Learning Toolbox™提供了一个框架,用于设计和实现具有算法,预训练模型和应用程序的深度神经网络。您可以使用卷积神经网络(ConvNets,CNN)和长期短期记忆(LSTM)网络对图像,时间序列和文本数据进行分类和...
pytorch-cifar100:在cifar100上实践(ResNetDenseNetVGG,GoogleNet,InceptionV3,InceptionV4,Inception-ResNetv2,Xception,Resnet In Resnet,ResNext,ShuffleNet,ShuffleNetv2,MobileNet,MobileNetv2,SqueezeNet,NasNet,Residual Attention Network,SE WideResNet
02-05
数据集我将使用来自torchvision的cifar100数据集,因为它更方便,但我还将示例代码保留了用于在数据集文件夹编写您自己的数据集模块的示例,以作为人们不知道如何编写它的示例。3.运行tensorbard(可选) 安装张量...
deepClassificationTool:基于Keras的深度图像分类工具。 该工具为较小的图像实现了VGGResNetInceptionV3的精简版
05-19
该工具为小图像实现了VGGResNetInceptionV3的精简版本。 工具使用python 3.5。 工具具有3种模式: 训练新的深度神经网络(train_flag = True,tune_flag = False)。 现有深度神经网络的调整(train_flag = ...
常用深度学习模型理论简介
FPGA/MATLAB学习教程/源码/项目合作开发
04-05 1333
在机器翻译(如Google的Transformer论文)、文本分类、问答系统、文本生成等领域取得革命性进展,是现代NLP模型(如BERT、GPT系列)的基础。近年来兴起的一种生成模型,基于扩散过程逐步将高斯噪声转化为数据样本可以用于图像生成、图像编辑、音频合成、3D形状生成等任务,以其高质量生成效果和可控性受到关注。卷积神经网络(Convolutional Neural Network, CNN)是一种特殊的深度神经网络,专为处理具有网格结构(如图像、视频、音频波形、序列数据等)的数据而设计。
常用的深度学习模型
热门推荐
羞羞滴小朋友
09-20 1万+
目录 1 自动编码器 2 受限玻尔兹曼机 3.深信度网络 1 自动编码器 如果事先不知道输入数据的标签,那么可以使用自动编码器。 自动编码器训练示意图标题 自动编码器让输入数据经过一个编码器得到一个编码输出,在将该输出导入一个解码器得到最终的输出,由于输入数据是无标签数据,此时的误差来自于输出和原输入之间的比较。通过调整编码器和解码器的参数,使得误差达到最小,就能得到输入信号的另...
深度学习常见的三种模型
m0_60258751的博客
03-19 956
不同于传统的全连接神经网络结构,卷积神经网络引入了局部感受区域的策略,如处理图像任务时,利用图像数据的空间结构以及邻近像素间的相关性。这使得单个神经元仅对局部信息进行响应,相邻神经元的感受区域存在重叠。循环神经网络是专门用于处理时序数据的神经网络,与典型的前馈型神经网络最大的不同在于网络内存在环形结构。隐藏层内部的神经元互相连接,可以存储网络的内部状态,并且包含序列输入的历史信息,以实现对时序动态行为的描述。此外,在卷积层,所有神经元共享同一个卷积核,从而显著减少了训练参数的数量,提高了网络的泛化能力。
LeNet、AlexNetVGGResNet是预训练模型
05-28
LeNet、AlexNetVGGResNet深度学习的经典模型,但它们并不是预训练模型。 预训练模型是指在大规模数据上预先进行过训练的模型,一般是通过无监督学习的方式在大规模数据上进行预训练,然后再在特定任务上进行微调。而LeNet、AlexNetVGGResNet等经典模型则是在特定任务上进行训练的。 当然,经典模型也可以通过预训练的方式进行改进,如使用预训练模型在ImageNet上进行预训练,然后再在特定任务上进行微调,这种方法被称为迁移学习。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • [机器学习-概念] 什么是欧式距离、标准化欧式距离、马氏距离、余弦距离 40538
  • 预测足球世界杯比赛 23633
  • [机器学习]京东机器学习类图书畅销原因分析-决策树或随机森林 21686
  • 音频特征于音频信号提取总结 21074
  • [机器学习-数学]什么是ESS/RSS/TSS 20054

分类专栏

  • LLM 3篇
  • GPT相关的 13篇
  • 智能体 1篇
  • Spring Cloud 1篇
  • Spring 9篇
  • Java 30篇
  • E3 7篇
  • 一步一步学spring boot 1篇
  • Redis 1篇
  • nlp 9篇
  • Text Classification 2篇
  • DeepLearning总结 8篇
  • NLP_Preprocessing 1篇
  • 搜索引擎 1篇
  • Python基础篇 3篇
  • 前端 1篇
  • python environment 1篇
  • tensorflow 76篇
  • JDK17 1篇
  • 论文阅读 3篇
  • 网络 1篇
  • Linux 2篇
  • 强化学习 1篇
  • Use Case Diagram 1篇
  • Python 19篇
  • kubernetes 5篇
  • Sklearn 29篇
  • Speech2Text 2篇
  • cv 5篇
  • test 1篇
  • 从实践中学习设计模式 1篇
  • 概率论 2篇
  • hibernate 4篇
  • Oracle 1篇
  • ignite 1篇
  • spring boot admin 1篇
  • 理论与算法 1篇
  • 可视化 2篇
  • 数学 2篇
  • 爬虫 2篇
  • 设计模式 1篇
  • Pandas 1篇
  • csdn 1篇
  • java-Spring 1篇

最新评论

  • conll2003数据集下载与预处理

    agxhdhdgdg: 运行的时候:ValueError: setting an array element with a sequence. The requested array has an inhomogeneous shape after 1 dimensions. The detected shape was (14987,) + inhomogeneous part. 2024-05-21 08:55:12.708117: I tensorflow/core/util/port.cc:113] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`. 2024-05-21 08:55:14.041887: I tensorflow/core/util/port.cc:113] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`.

  • [机器学习-概念篇]彻底搞懂信息量,熵、相对熵、交叉熵

    ZHTQ1997: 解释的很好

  • Java Spring连接Tibco Queue 总结

    茫茫人海一粒沙: https://mvnrepository.com/artifact/com.tibco/tibjms/8.38.3 我看到一个8.38.3版本的,我公司是直接用8.5.0版本的。差不多都一样吧。

  • Java Spring连接Tibco Queue 总结

    kimi5977: 你好,tibjms依赖下载不下来?

  • 查询本地知识库之llama2+langchain

    pink pig: 想问下仅用directoyloader是可以包含其他所有格式的文件吗

您愿意向朋友推荐“博客详情页”吗?

  • 强烈不推荐
  • 不推荐
  • 一般般
  • 推荐
  • 强烈推荐
提交

最新文章

  • [Llama3] ReAct Prompt 测试实验
  • llama2 和 llama3 中提示(prompt)的模板
  • LLM提示工程的技巧
2024年32篇
2023年63篇
2022年62篇
2021年14篇
2020年110篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

茫茫人海一粒沙

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或 充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

深圳SEO优化公司莱芜模板制作公司铜川企业网站制作推荐鹰潭seo网站优化厦门网站改版多少钱坑梓网站制作设计报价运城企业网站制作公司钦州网络营销公司宝鸡营销型网站建设价格唐山优化推荐开封百度网站优化排名公司朔州阿里店铺托管报价武汉SEO按天扣费公司桂林seo优化铜川seo网站推广哪家好永州外贸网站建设哪家好长春网站搜索优化报价东莞SEO按天计费推荐成都SEO按效果付费玉树网站定制晋城企业网站改版哪家好丽江优化报价普洱seo优化报价信阳设计公司网站推荐广元优化推荐怀化seo优化哪家好黄冈建设网站价格甘南网站优化排名价格临汾营销型网站建设九江品牌网站设计哪家好张家口阿里店铺运营歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

深圳SEO优化公司 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化