机器学习中常见的最优化算法总结

最优化算法的重要性不言而喻,笔者在本科的时候曾经投入不少精力参加数学建模竞赛,学习到了不少东西,也取得过一些较好的奖项。在数学建模竞赛中,优化问题占了大半江山,由此可见其在科研以及实际项目中的分量。本篇博客主要将竞赛和项目中曾遇到过的以及机器学习中的常见优化算法做一个概要总结。

1. 梯度下降法

关于梯度下降法的详细解释,可参照笔者的另一篇博客:BP 神经网络中的基础算法之二 —— 梯度下降算法,在此不再赘述。这里补充一下,在机器学习中,基于基本的梯度下降法发展了三种梯度下降方法,分别为随机梯度下降法,批量梯度下降法以及小批量梯度下降法。

(1)批量梯度下降法(Batch Gradient Descent,BGD)

BGD 得到的是一个全局最优解,但是批量梯度下降法在更新每一个参数时,都需要所有的训练样本,如果样本的数量很大,那么可想而知这种方法的迭代速度会相当的慢。从迭代的次数上来看,BGD迭代的次数相对较少。

优点全局最优解;易于并行实现;
缺点当样本数目很多时,训练过程会很慢。

(2)随机梯度下降(Stochastic Gradient Descent,SGD)

随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经迭代到最优解了,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。但是,SGD 伴随的一个问题是噪音较 BGD 要多,使得 SGD 并不是每次迭代都向着整体最优化方向。从迭代的次数上来看,SGD 迭代的次数较多,在解空间的搜索过程看起来很盲目。

优点训练速度快
缺点准确度下降,并不是全局最优;不易于并行实现

(3)小批量梯度下降法(Mini-batch Gradient Descent,MBGD)

有上述的两种梯度下降法可以看出,其各自均有优缺点,那么能不能在两种方法的性能之间取得一个折衷呢?即,算法的训练过程比较快,而且也要保证最终参数训练的准确率,而这正是小批量梯度下降法(Mini-batch Gradient Descent,简称MBGD)的初衷。

总结
这里写图片描述
BGD——最小化所有训练样本的损失函数,使得最终求解的是全局的最优解,即求解的参数是使得风险函数最小,但是对于大规模样本问题效率低下。

SGD——最小化每个样本的损失函数,虽然不是每次迭代得到的损失函数都向着全局最优方向, 但是大的整体的方向是向全局最优解的,最终的结果往往是在全局最优解附近,适用于大规模训练样本情况。

SGD 以损失很小的一部分精确度和增加一定数量的迭代次数为代价,换取了总体的优化效率的提升。增加的迭代次数远远小于样本的数量。

2. 牛顿法和拟牛顿法

(1)牛顿法

牛顿法是一种在实数域和复数域上近似求解方程的方法。方法使用函数 f(x) f ( x ) 的泰勒级数的前面几项来寻找方程 f(x)=0 f ( x ) = 0 的根,牛顿法最大的特点就在于它的收敛速度很快。关于牛顿法的具体实例应用,可参考笔者的另外一篇博客:牛顿迭代法求解开方问题

牛顿法与梯度下降法的效率对比
从本质上去看,牛顿法是二阶收敛,梯度下降是一阶收敛,所以牛顿法就更快。如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位置选一个坡度最大的方向走一步,牛顿法在选择方向时,不仅会考虑坡度是否够大,还会考虑你走了一步之后,坡度是否会变得更大。所以,可以说牛顿法比梯度下降法看得更远一点,能更快地走到最底部。(牛顿法目光更加长远,所以少走弯路;相对而言,梯度下降法只考虑了局部的最优,没有全局思想。)

牛顿法的优缺点
优点二阶收敛,收敛速度快;
缺点牛顿法是一种迭代算法,每一步都需要求解目标函数的 Hessian 矩阵的逆矩阵,计算比较复杂。

(2)拟牛顿法

拟牛顿法的本质思想是改善牛顿法每次需要求解复杂的 Hessian 矩阵的逆矩阵的缺陷,它使用正定矩阵来近似 Hessian 矩阵的逆,从而简化了运算的复杂度。拟牛顿法不需要二阶导数的信息,所以有时比牛顿法更为有效。常用的拟牛顿法有 DFP (Davidon Fletcher Powell,三个人的名字命名) 算法和 BFGS (Broyden Fletcher Goldfarb Shanno,四个人的名字命名) 算法。详细算法过程将会在后续博文中总结。

3. 共轭梯度法(Conjugate Gradient)

共轭梯度法是介于梯度下降法与牛顿法之间的一个方法,它仅需利用一阶导数信息,但克服了最速下降法收敛慢的缺点,又避免了牛顿法需要存储和计算 Hessian 矩阵并求逆的缺点,共轭梯度法不仅是解决大型线性方程组最有用的方法之一,也是解大型非线性最优化最有效的算法之一。 在各种优化算法中,共轭梯度法是非常重要的一种。其优点是所需存储量小,具有步收敛性,稳定性高,而且不需要任何外来参数。

4. 启发式优化方法

启发式方法指人在解决问题时所采取的一种根据经验规则进行发现的方法。其特点是在解决问题时,利用过去的经验,选择已经行之有效的方法,而不是系统地、以确定的步骤去寻求答案。启发式优化方法种类繁多,包括经典的模拟退火方法、遗传算法、蚁群算法以及粒子群算法等群智能算法。

该博文主要参考资料:
[1] 机器学习中常见的最优化算法
[2] 常见的几种最优化方法
[3] 梯度下降法的三种形式BGD、SGD以及MBGD;
[4] 牛顿法与拟牛顿法

©️2020 CSDN 皮肤主题: 酷酷鲨 设计师:CSDN官方博客 返回首页