深度学习中学习率(lr:learn rate)和batchsize如何影响模型性能?

71 篇文章 22 订阅
订阅专栏

引用自:学习率和batchsize如何影响模型的性能?

文章目录

    • 1 为什么说学习率和batchsize
    • 2 学习率如何影响模型性能?
      • 2.1、初始学习率大小对模型性能的影响
      • 2.2、学习率变换策略对模型性能的影响
        • 2.2.1 预设规则学习率变化法
        • 2.2.2 自适应学习率变化法
      • 2.3、小结
    • 3 Batchsize如何影响模型性能?
      • 3.1、大的batchsize减少训练时间,提高稳定性
      • 3.2、大的batchsize导致模型泛化能力下降
      • 3.3、小结
    • 4 学习率和batchsize的关系
    • 参考文献

1 为什么说学习率和batchsize

目前深度学习模型多采用批量随机梯度下降算法进行优化,随机梯度下降算法的原理如下,
在这里插入图片描述
n是批量大小(batchsize),η是学习率(learning rate)。可知道除了梯度本身,这两个因子直接决定了模型的权重更新,从优化本身来看它们是影响模型性能收敛最重要的参数。

学习率直接影响模型的收敛状态,batchsize则影响模型的泛化性能,两者又是分子分母的直接关系,相互也可影响,因此这一次来详述它们对模型性能的影响。

2 学习率如何影响模型性能?

通常我们都需要合适的学习率才能进行学习,要达到一个强的凸函数的最小值,学习率的调整应该满足下面的条件,i代表第i次更新。
在这里插入图片描述
第一个式子决定了不管初始状态离最优状态多远,总是可以收敛。第二个式子约束了学习率随着训练进行有效地降低,保证收敛稳定性,各种自适应学习率算法本质上就是不断在调整各个时刻的学习率。

学习率决定了权重迭代的步长,因此是一个非常敏感的参数,它对模型性能的影响体现在两个方面,第一个是初始学习率的大小,第二个是学习率的变换方案。

2.1、初始学习率大小对模型性能的影响

初始的学习率肯定是有一个最优值的,过大则导致模型不收敛,过小则导致模型收敛特别慢或者无法学习,下图展示了不同大小的学习率下模型收敛情况的可能性,图来自于cs231n。
在这里插入图片描述
那么在不考虑具体的优化方法的差异的情况下,怎样确定最佳的初始学习率呢?

通常可以采用最简单的搜索法,即从小到大开始训练模型,然后记录损失的变化,通常会记录到这样的曲线。
在这里插入图片描述
随着学习率的增加,损失会慢慢变小,而后增加,而最佳的学习率就可以从其中损失最小的区域选择。

有经验的工程人员常常根据自己的经验进行选择,比如0.1,0.01等。

随着学习率的增加,模型也可能会从欠拟合过度到过拟合状态,在大型数据集上的表现尤其明显,笔者之前在Place365上使用DPN92层的模型进行过实验。随着学习率的增强,模型的训练精度增加,直到超过验证集。
(lr是learning rate:学习率)
在这里插入图片描述

2.2、学习率变换策略对模型性能的影响

学习率在模型的训练过程中很少有不变的,通常会有两种方式对学习率进行更改,一种是预设规则学习率变化法,一种是自适应学习率变换方法。

2.2.1 预设规则学习率变化法

常见的策略包括fixed,step,exp,inv,multistep,poly,sigmoid等,集中展示如下:
(fixed是固定的学习率)
在这里插入图片描述
笔者之前做过一个实验来观察在SGD算法下,各种学习率变更策略对模型性能的影响,具体的结果如下:
在这里插入图片描述
从结果来看:

  • step,multistep方法的收敛效果最好,这也是我们平常用它们最多的原因。虽然学习率的变化是最离散的,但是并不影响模型收敛到比较好的结果。

  • 其次是exp,poly。它们能取得与step,multistep相当的结果,也是因为学习率以比较好的速率下降,虽然变化更加平滑,但是结果也未必能胜过step和multistep方法,在这很多的研究中都得到过验证,离散的学习率变更策略不影响模型的学习。

  • inv和fixed的收敛结果最差。这是比较好解释的,因为fixed方法始终使用了较大的学习率,而inv方法的学习率下降过程太快。

从上面的结果可以看出,对于采用非自适应学习率变换的方法,学习率的绝对值对模型的性能有较大影响,研究者常使用step变化策略。

目前学术界也在探索一些最新的研究方法,比如cyclical learning rate,示意图如下:
在这里插入图片描述
实验证明通过设置上下界,让学习率在其中进行变化,可以在模型迭代的后期更有利于克服因为学习率不够而无法跳出鞍点的情况。

确定学习率上下界的方法则可以使用LR range test方法,即使用不同的学习率得到精度曲线,然后获得精度升高和下降的两个拐点,或者将精度最高点设置为上界,下界设置为它的1/3大小。
在这里插入图片描述
SGDR方法则是比cyclical learning rate变换更加平缓的周期性变化方法,如下图,效果与cyclical learning rate类似。
在这里插入图片描述

2.2.2 自适应学习率变化法

自适应学习率策略以Adagrad,Adam等为代表。

原理上各种改进的自适应学习率算法都比SGD算法更有利于性能的提升,但实际上精细调优过的SGD算法可能取得更好的结果,在很多的论文[3-4]中都得到过验证,我们在实验中也多次证明过这一点,如下图。
(SGD算法,即随机梯度下降法 Stochastic gradient descent)
在这里插入图片描述

2.3、小结

不考虑其他任何因素,学习率的大小和迭代方法本身就是一个非常敏感的参数。如果经验不够,还是考虑从Adam系列方法的默认参数开始,如果经验丰富,可以尝试更多的实验配置。

3 Batchsize如何影响模型性能?

模型性能对batchsize虽然没有学习率那么敏感,但是在进一步提升模型性能时,batchsize就会成为一个非常关键的参数。

3.1、大的batchsize减少训练时间,提高稳定性

这是肯定的,同样的epoch数目,大的batchsize需要的batch数目减少了,所以可以减少训练时间,目前已经有多篇公开论文在1小时内训练完ImageNet数据集。另一方面,大的batch size梯度的计算更加稳定,因为模型训练曲线会更加平滑。在微调的时候,大的batch size可能会取得更好的结果。

3.2、大的batchsize导致模型泛化能力下降

在一定范围内,增加batchsize有助于收敛的稳定性,但是随着batchsize的增加,模型的性能会下降,如下图,来自于文[5]。
在这里插入图片描述
这是研究者们普遍观测到的规律,虽然可以通过一些技术缓解。这个导致性能下降的batch size在上图就是8000左右。

那么这是为什么呢?

研究[6]表明大的batchsize收敛到sharp minimum,而小的batchsize收敛到flat minimum,后者具有更好的泛化能力。两者的区别就在于变化的趋势,一个快一个慢,如下图,造成这个现象的主要原因是小的batchsize带来的噪声有助于逃离sharp minimum。
在这里插入图片描述
Hoffer[7]等人的研究表明,大的batchsize性能下降是因为训练时间不够长,本质上并不少batchsize的问题,在同样的epochs下的参数更新变少了,因此需要更长的迭代次数。

3.3、小结

batchsize在变得很大(超过一个临界点)时,会降低模型的泛化能力。在此临界点之下,模型的性能变换随batch size通常没有学习率敏感。

4 学习率和batchsize的关系

通常当我们增加batchsize为原来的N倍时,要保证经过同样的样本后更新的权重相等,按照线性缩放规则,学习率应该增加为原来的N倍[5]。但是如果要保证权重的方差不变,则学习率应该增加为原来的sqrt(N)倍[7],目前这两种策略都被研究过,使用前者的明显居多。

从两种常见的调整策略来看,学习率和batchsize都是同时增加的。学习率是一个非常敏感的因子,不可能太大,否则模型会不收敛。同样batchsize也会影响模型性能,那实际使用中都如何调整这两个参数呢?

研究[8]表明,衰减学习率可以通过增加batchsize来实现类似的效果,这实际上从SGD的权重更新式子就可以看出来两者确实是等价的,文中通过充分的实验验证了这一点。

研究[9]表明,对于一个固定的学习率,存在一个最优的batchsize能够最大化测试精度,这个batchsize和学习率以及训练集的大小正相关。

对此实际上是有两个建议:

  • 如果增加了学习率,那么batch size最好也跟着增加,这样收敛更稳定。

  • 尽量使用大的学习率,因为很多研究都表明更大的学习率有利于提高泛化能力。如果真的要衰减,可以尝试其他办法,比如增加batch size,学习率对模型的收敛影响真的很大,慎重调整。

关于学习率和batch size这次就说这么多,感兴趣可以自行拓展阅读。

参考文献

[1] Smith L N. Cyclical learning rates for training neural networks[C]//2017 IEEE Winter Conference on Applications of Computer Vision (WACV). IEEE, 2017: 464-472.

[2] Loshchilov I, Hutter F. Sgdr: Stochastic gradient descent with warm restarts[J]. arXiv preprint arXiv:1608.03983, 2016.

[3] Reddi S J, Kale S, Kumar S. On the convergence of adam and beyond[J]. 2018.

[4] Keskar N S, Socher R. Improving generalization performance by switching from adam to sgd[J]. arXiv preprint arXiv:1712.07628, 2017.

[5] Goyal P, Dollar P, Girshick R B, et al. Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour.[J]. arXiv: Computer Vision and Pattern Recognition, 2017.

[6] Keskar N S, Mudigere D, Nocedal J, et al. On large-batch training for deep learning: Generalization gap and sharp minima[J]. arXiv preprint arXiv:1609.04836, 2016.

[7] Hoffer E, Hubara I, Soudry D. Train longer, generalize better: closing the generalization gap in large batch training of neural networks[C]//Advances in Neural Information Processing Systems. 2017: 1731-1741.

[8] Smith S L, Kindermans P J, Ying C, et al. Don’t decay the learning rate, increase the batch size[J]. arXiv preprint arXiv:1711.00489, 2017.

[9] Smith S L, Le Q V. A bayesian perspective on generalization and stochastic gradient descent[J]. arXiv preprint arXiv:1710.06451, 2017.

有一些没看懂,作者写的蛮好的!!先收藏

DeepLearning:训练神经网络—学习率BatchSize
weixin_43771204的博客
11-16 2508
训练神经网络—学习率batchSize 文章目录训练神经网络—学习率batchSize1、学习率(Learning Rate)定义调整策略人工调整策略策略调整学习率固定学习率衰减分段减缓分数减缓指数减缓余弦周期减缓自适应学习率衰减Pytorch实现1.lr_scheduler.StepLR2.lr_scheduler.MultiStepLR3.lr_scheduler.ExponentialLR4.lr_scheduler.CosineAnnealingLR5.lr_scheduler.ReduceLR
《统计学习方法第二版》学习笔记1——概论
sd3145265的博客
09-07 826
第1章 统计学习及监督学习概率论 目录第1章 统计学习及监督学习概率论前言1 理论部分1.1 统计学习1.2 统计学习的分类1.3 统计学习方法三要素1.4 模型评估与模型选择1.5 正则化与交叉验证1.6 泛化能力1.7 生成模型与判别模型1.8 监督学习应用 前言 本文主要参考资料: 《统计学习方法》第二版 李航 《统计学习方法》第二版PPT 袁春 这次学习笔记主要记录《统计学习方法》的一些重要知识点及其拓展、相关代码实现和一些思考,起因是我们可爱美丽的V同学发动的组队学习打卡活动。本人并非计
深度学习batch size 和 learning rate有什么关系
月下花弄影
11-18 1万+
参考文章链接 参考文章题目:One weird trick for parallelizing convolutional neural networks 具体可看第5页。 一般来说,我们batch size 大一些,则learning rate也要大一些。且有一个数学关系。 假设别人最优的结果是这样的: batchsize=batch1batch size = batch_1batchsize...
深入理解神经网络学习率(定义、影响因素、常见调参方法、关键代码实现)
a910247的博客
04-16 5572
深度学习学习率(Learning Rate)是一个至关重要的超参数,它决定了模型在训练过程更新权重参数的速度与方向。在使用梯度下降法(Gradient Descent)或其变种(如随机梯度下降,Stochastic Gradient Descent, SGD)优化模型时,学习率扮演着核心角色。具体来说,在每次迭代过程模型计算损失函数关于各个参数的梯度,这个梯度指示了参数应当朝着哪个方向调整以最小化损失。学习率就是这个调整过程的“步伐”大小,即参数更新的量。
学习率Learn_rate是什么(深度学习
weixin_45440484的博客
08-03 1542
较高的学习率可能会导致模型跳过全局最优解并陷入局部最优解,而较低的学习率可能需要更多的迭代才能达到全局最优解。收敛速度:较高的学习率可以加快模型的收敛速度,因为参数更新更大,模型能够更快地找到损失函数的最小值。较低的学习率通常会使模型在训练期间更加稳定,但可能需要更多的迭代次数才能达到较好的性能。选择合适的学习率深度学习一个重要的超参数调整问题,需要通过实验和验证来找到最佳的学习率,以便在训练过程获得最佳的模型性能学习率的选择直接关系模型性能和训练过程的效果。
batch size,学习率(learning rate),and training time
weixin_41709956的博客
11-13 2855
batch size,学习率(learning rate),and training time 1.batch size和leaning rate关系 现在深度学习的绝大多数算法采用梯度下降法来进行训练,并且通过选择学习率来控制下降的步长,在梯度下降法学习率batch size的选择直接影响了下降的步长,即步长与batch size成反比,与学习率成正比,因此这两个参数直接影响模型的参数更新,他们是影响模型性能收敛的最佳参数。 (1)大的batch size可提高模型的稳定性,并且可以减少训
pytorch模型训练学习率调整方法总结
JingpengSun的博客
06-26 3606
pytorch学习率调整方法总结
如何提升深度学习性能?数据、算法、模型一个都不能少.doc
09-15
如何提升深度学习性能?数据、算法、模型一个都不能少 你是如何提升深度学习模型的效果? 这是我经常被问到的一个问题。 有时候也会换一种问法: 我该如何提高模型的准确率呢? ……或者反过来问: 如果我的...
深度学习模型各层参数数目对于性能影响.pdf
08-19
深度学习模型各层参数数目对于性能影响.pdf
深度学习的epochs,batch_size,iterations详解.pdf
04-19
深度学习的epochs,batch_size,iterations详解.pdf
深度学习:基于Keras框架,使用神经网络模型对葡萄酒类型进行预测分析
最新发布
06-12
深度学习:基于Keras框架,使用神经网络模型对葡萄酒类型进行预测分析 使用Keras框架进行深度学习以预测葡萄酒类型是一个很好的实践项目。下面是一个基本的步骤指南,帮助你开始这个项目: 1. 数据准备 首先,你需要...
Keras深度学习框架第十二讲:迁移学习与微调源代码
05-17
迁移学习和微调是深度学习领域至关重要的技术,它们极大地推动了模型在各种任务上的性能提升。迁移学习通过利用在一个大型数据集上预训练的模型作为起点,将这些模型在新任务上进行适应和调整,从而解决了新任务上...
学习率(Learing Rate)的作用以及如何调整
用于记录学习的过程,不做商业用途。
09-20 1万+
1.什么是学习率 学习率(Learning rate)作为监督学习以及深度学习重要的超参,其决定着目标函数能否收敛到局部最小值以及何时收敛到最小值。合适的学习率能够使目标函数在合适的时间内收敛到局部最小值。   这里以梯度下降为例,来观察一下不同的学习率对代价函数的收敛过程的影响(这里以代价函数为凸函数为例): 回顾一下梯度下降的代码:   repeat{     θj=θj−αΔJ(θ)Δθjθj=θj−αΔJ(θ)Δθj   }   当学习率设置的过小时,收敛过程如下: 当学习率设置...
深度学习的超参数以及两个重要的超参数——学习率batch_size
qq_30121457的博客
10-05 9867
前言   在深度学习有很多参数是我们在训练模型之前自己设定的,我们把这些参数就称为——超参数。其主要超参数包括了:学习率batch_size、梯度下降法循环的数量、隐藏层数目、隐藏层单元数目、激活函数的选择等。 1.超参数 2.学习率 3.batch_size 1.超参数 1.1 超参数的选择 如何选择最优的超参数对模型性能起着非常重要的作用,下面提供了一些常用的选择超参数的方法:   1.猜测和检查:根据经验或直觉,选择参数,一直迭代。   2.网格搜索:让计算机尝试在一定范围内均匀分布的一组值
理解学习率以及如何提升深度学习性能
AI公园
02-22 575
点击上方“AI公园”,关注公众号,选择加“星标“或“置顶”作者:Hafidz Zulkifli编译:ronghuaiyang前戏把学习率用好,也能提升深度学习模型性能,...
hyperparameters 超参数
power的专栏
08-28 892
在机器学习的上下文,超参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。通常情况下,需要对超参数进行优化,给学习机选择一组最优超参数,以提高学习的性能和效果。 在机器学习的上下文,超参数是在开始学习过程之前设置值的参数。 相反,其他参数的值通过训练得出。 超参数: 定义关于模型的更高层次的概念,如复杂性或学习能力。 不能直接从标准模型培训过程的数据学习,需要预先定义。 ...
史上最全学习率调整策略lr_scheduler
热门推荐
weiman1的博客
07-06 1万+
学习率深度学习训练至关重要的参数,很多时候一个合适的学习率才能发挥出模型的较大潜力。所以学习率调整策略同样至关重要,这篇博客介绍一下Pytorch常见的学习率调整方法。
深度学习BatchSize设置
littlemichelle
07-18 1万+
Batch_size的使用意义及大小的选择 Batch_size不宜选的太小,太小了容易不收敛,或者需要经过很大的epoch才能收敛;也没必要选的太大,太大的话首先显存受不了,其次可能会因为迭代次数的减少而造成参数修正变的缓慢。 Batch_size有时候明明已经很小了,可显存还是很紧张,还有就是同样的图片大小,同样的Batch_size,为啥有时候显存够用有时候就不够用呢,目前我所知道...
batch-sizelr关系
qq_36934996的博客
12-02 296
http://mp.weixin.qq.com/s?__biz=MzA3NDIyMjM1NA==&mid=2649032995&idx=2&sn=28b065415c2d8a11345531f1284413d0&chksm=8712b75eb0653e48f46de857b14d6e029f08a5c0336928fc638eac1f8287aefea01a262be1e2&mpshare=1&scene=23&srcid=12022pcmwawzM.
深度学习增大batchsizelr
04-04
关系深度学习batchsizelr学习率)是两个非常重要的参数。batchsize指的是每次训练时使用的样本数,而lr则是指每次更新权重时变化的步长。在训练深度学习模型时,通常需要对这两个参数进行调整以获得更好的性能。 增大batchsizelr关系可以总结为以下几点: 1. 增大batchsize可以加快训练速度,而增大lr可以加快收敛速度。因此,当我们需要快速训练模型时,可以尝试同时增大batchsizelr。 2. 增大batchsize会增加每次更新权重的噪声,而增大lr会增加每次更新权重的幅度。因此,当我们增大batchsizelr时需要注意过拟合问题。 3. 当batchsizelr同时增大时,需要考虑GPU显存的限制。如果显存不足,可能会导致训练失败或者速度变慢。 4. 当模型达到一定的训练程度时,增大batchsizelr的效果会逐渐减弱。因此,在模型训练的后期,需要适当减小batchsizelr以获得更好的性能。 总之,在增大batchsizelr时需要注意平衡训练速度和模型性能,并且需要根据具体情况进行调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • 图像处理中的“内插”是什么?插值、图像内插值、图像间插值、重取样(用已知数据来估计未知位置的数值的处理)(最近邻内插法、双线性内插) 165211
  • python 如何获取数组(列表)长度? len() 127124
  • Linux如何创建用户、新增用户、创建新用户、删除用户(adduser、deluser)(useradd、userdel)、获取用户列表、查看家目录 103612
  • 图像位深度 8位 16位 24位 32位区别对比 RGB 真彩色 基本概念:(大小,深度,通道)位深度数据类型转换原理 Mat数据读取(opencv里的imread) 64047
  • python 如何判断一个数为整数?(判断整数,没有小数)(取余)判断整型 isinstance() 61092

分类专栏

  • VMware虚拟机 13篇
  • C/C++ 465篇
  • PC 86篇
  • English 66篇
  • 服务器 9篇
  • 运维 30篇
  • Python 464篇
  • ubuntu 165篇
  • linux 462篇
  • docker 53篇
  • shell 66篇
  • javascript 15篇
  • auto.js 4篇
  • windows 15篇
  • 数据通信和网络协议 32篇
  • 网络编程 175篇
  • 嵌入式 3篇
  • WEP 16篇
  • KYSL 2篇
  • CentOS 6篇
  • vscode 24篇
  • web 1篇
  • Jobs 2篇
  • 游戏 1篇
  • 深度学习 deep_learning 71篇
  • Redis 1篇
  • jenkins 1篇
  • 音视频 45篇
  • ffmpeg 58篇
  • Rust 1篇
  • CUDA 16篇
  • 硬件 1篇
  • nginx 9篇
  • 编码 5篇
  • RTSP 4篇
  • 数据库 14篇
  • git 2篇
  • 数字图像处理 49篇
  • 低代码 1篇
  • 编译器 1篇
  • 网络安全 3篇
  • 云原生 1篇
  • Android 4篇
  • cmake 19篇
  • mysql 5篇
  • Java 5篇
  • Tools 3篇
  • Pytorch 25篇
  • Opencv 88篇
  • angular 2篇
  • html 25篇
  • css 13篇
  • Source Insight 7篇
  • 汇编语言 6篇
  • python-flask 19篇
  • node.js 6篇
  • npm 2篇
  • makefile 5篇
  • nodejs 1篇
  • 前端 7篇
  • QT 5篇
  • VCS 6篇
  • 中级软考 31篇
  • 头条知士科普创作营 6篇
  • 图像处理 6篇
  • gstreamer 1篇
  • visio 3篇
  • tensorflow 70篇
  • UNKNOWN 1篇
  • buildroot 1篇
  • Eclipse 1篇
  • Markdown 9篇
  • matplotlib 2篇
  • 编译原理 9篇
  • 数据结构 5篇
  • 房子
  • car 7篇
  • 量子力学 12篇
  • 生物密码 2篇
  • 视频制作 7篇
  • 通信 1篇
  • 笔记
  • 《深度学习的数学》 13篇
  • 小短文
  • 机器学习 4篇
  • 数据挖掘 2篇
  • 会议 1篇
  • 程序员 1篇
  • 哲学 10篇
  • numpy 9篇
  • Food
  • Math 1篇
  • USB 11篇
  • Graphic design 1篇
  • Python Reptile 8篇
  • 图卷积网络 1篇
  • 大数据 1篇
  • Keras 1篇
  • MBTI测试 2篇
  • 卷积神经网络 5篇
  • Basketball 2篇
  • Intelligent camera 5篇
  • Slam 1篇
  • URL Collection 1篇
  • Leetcode 3篇
  • Yolo 14篇
  • 深入浅出 python机器学习 111篇
  • Jupyter notebook 6篇
  • CSDN 11篇
  • COMPANY 6篇
  • Pycharm 62篇
  • Visual Studio 27篇
  • Intel RealSense 163篇
  • CMD 5篇
  • entrance examination 1篇
  • GitHub 14篇

最新评论

  • VMWare克隆、复制的虚拟机如何重新设置ip地址

    wushuang443: 请问下作者,如果我只开这个克隆的虚拟机是不是就不存在ip冲突的问题了,

  • C++set容器,自定义排序方法(使用仿函数(Functor)或者普通函数指针)

    Dontla: 你说的是对的,已修改。

  • C++set容器,自定义排序方法(使用仿函数(Functor)或者普通函数指针)

    wangyipeng小水滴: 仿函数有些错误吧,应该是函数定义应该是需要const吧, class MyCompare { public: bool operator()(const int v1,const int v2) const{ return v1 > v2; } };

  • python 列表 (List)的用法 append() del count() extend() index() insert() pop(]) remove() reverse() sort()

    CSDN-Ada助手: 哇, 你的文章质量真不错,值得学习!不过这么高质量的文章, 还值得进一步提升, 以下的改进点你可以参考下: (1)提升标题与正文的相关性。

  • python 内置的列表元素排序方法 python sort()函数 和 python sorted()函数(自定义排序参数key的使用方法详解)(sort会修改原列表,sorted不会修改原列表)

    CSDN-Ada助手: Python读写Excel最方便的库是哪个?

大家在看

  • 天锐绿盾数据防泄密软件有哪些功能
  • 等保测评练习卷2
  • javaWeb项目-ssm+vue大学生心理健康管理系统功能介绍
  • Babel转码器
  • 什么是深拷贝;深拷贝和浅拷贝有什么区别;深拷贝和浅拷贝有哪些方法(详解) 767

最新文章

  • VMware虚拟机卡顿(虚拟机卡死)(调整所有虚拟机内存使其适应预留的主机 RAM (F)、默认进程优先级、不允许使用内存页面修整功能(M))
  • windows如何查看硬盘类型(查看磁盘类型)(查看是固态硬盘ssd还是机械硬盘hdd)(Windows优化驱动器——媒体类型)
  • 《雅思口语真经总纲1.0》笔记——第二章:官方评分标准真经——Grammar Range & Accuracy 语法多样性和准确性——三十二个语法功能句型(32个语法句型)
2024
06月 40篇
05月 44篇
04月 13篇
03月 32篇
02月 29篇
01月 56篇
2023年540篇
2022年539篇
2021年423篇
2020年547篇
2019年680篇

目录

目录

分类专栏

目录

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Dontla

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或 充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

深圳SEO优化公司珠海百度网站优化推荐伊春网站关键词优化价格沙井网页设计推荐沙井网站推广工具推荐沙井如何制作网站公司太原网站推广系统推荐抚州关键词按天计费报价观澜网站建设设计报价伊春网站改版价格宣城设计公司网站公司南京网站改版多少钱观澜外贸网站制作哪家好曲靖seo网站优化推荐娄底网站开发昌都外贸网站制作推荐福州品牌网站设计哪家好肇庆seo网站优化报价德州建网站公司福田设计公司网站公司黄冈网站制作价格固原外贸网站制作山南如何制作网站价格济南网站优化公司濮阳企业网站设计哪家好承德网站定制报价曲靖网站制作价格布吉网站开发公司龙华网站优化排名多少钱黄山外贸网站建设价格淄博SEO按天收费多少钱歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

深圳SEO优化公司 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化