欢迎光临
我们一直在努力
广告
广告
广告
广告
广告
广告
广告
广告
广告
广告

优乐综合社区L-BFGS算法介绍

function showImg(url) {
var frameid = ‘frameimg’ + Math.random();
window.img = ‘window.onload = function() { parent.document.getElementById(” + frameid + ”).height = document.getElementById(‘img’).height+’px’; }’;
document.write(”);
}

本文由作者林洋港授权网易云社区发布。

一、 L-BFGS是什么
L-BFGS是解无约束非线性规划问题最常用的方法,具有收敛速度快、内存开销少等优点,在机器学习各类算法中常有它的身影。简单的说,L-BFGS和梯度下降、SGD干的同样的事情,但大多数情况下收敛速度更快,这点在大规模计算中很重要。下图是深度学习Autoencoder模型不同优化方法的比较。

showImg(‘#’);

二、 L-BFGS“之前”的那些方法

这里的“之前”并不是说L-BFGS问世之前就已经存在的方法,而是指为了更好的理解L-BFGS需要了解的其他方法。无约束问题定义:

showImg(‘#’);

我们先从泰勒展开开始,这可以说是本文介绍的所有方法的基础。f在showImg(‘#’);的一阶泰勒展开为

showImg(‘#’);

二阶泰勒展开为

showImg(‘#’);

去掉最后的余项,得到

showImg(‘#’);

showImg(‘#’);

2.1 最速下降法(Gradient descent)

CD算法的一个前提条件就是f在showImg(‘#’);连续可微,并且在showImg(‘#’);处的导数不为0。由公式1可知当第二项<0时f的值将下降。由Cauchy-Schwartz不等式可得

showImg(‘#’);为最速下降方向。因此迭代公式为

showImg(‘#’);

showImg(‘#’);满足showImg(‘#’);

2.2 牛顿法(Newton method)

由于f的极值点就是满足f的导数为0,根据公式2,得到

showImg(‘#’);

假设Hesse矩阵showImg(‘#’);可逆,由上式可得牛顿法迭代公式

showImg(‘#’);

牛顿法具有二次终止性的特点,即经过有限次迭代必达到极小点。例如,对于二次凸函数

showImg(‘#’);

A是对称正定矩阵,取任意初始点showImg(‘#’);,根据公式3有showImg(‘#’);

显然经过1次迭代即达到极值点。

但牛顿法要求f二次连续可微,并且Hesse矩阵showImg(‘#’);满足可逆和正定两个条件;同时,牛顿方向showImg(‘#’);不一定每次迭代都是下降方向。

阻尼牛顿法是牛顿法的修正,与牛顿法的区别是迭代公式增加了牛顿方向上的一维搜索,即showImg(‘#’);

其中showImg(‘#’);

showImg(‘#’);是一维搜索得到的步长,满足

showImg(‘#’);

2.3 拟牛顿法(Quasi-Newton Method)

牛顿法每次迭代都需要计算showImg(‘#’);处的Hesse矩阵的逆,同时Hesse矩阵也不一定是正定的。人们又提出了拟牛顿法,其基本思想是用不包含二阶导数的矩阵来近似Hesse矩阵的逆。将f在showImg(‘#’);处展开成2阶泰勒级数并取近似,即

showImg(‘#’);

设Hesse矩阵可逆,可得showImg(‘#’);

设近似矩阵为showImg(‘#’);根据上述,必须满足showImg(‘#’);

公式7称为拟牛顿条件。showImg(‘#’);的不同构造方法,决定了不同的拟牛顿方法。

当showImg(‘#’);时n阶对称正定矩阵时,满足牛顿条件的showImg(‘#’);也必须是n阶对称正定矩阵。因此showImg(‘#’);的一般构造策略为:showImg(‘#’);取为任意n阶对称正定矩阵(通常为单位矩阵I),然后通过下式求出showImg(‘#’);

showImg(‘#’);

showImg(‘#’);称为校正矩阵。

DFP算法将校正矩阵定义为:showImg(‘#’);

至此,根据公式4、5、6、7、10、11可以由showImg(‘#’);得出showImg(‘#’);并且不需要每次迭代计算Hesse矩阵。

BFGS算法用矩阵showImg(‘#’);近似公式8中的Hesse矩阵showImg(‘#’);,从而得到showImg(‘#’);

将q与p互换,showImg(‘#’);分别取代showImg(‘#’);由DFP公式可以得到

showImg(‘#’);

令showImg(‘#’);,从而得到BFGS公式:

showImg(‘#’);

从公式11和公式12可以看出,拟牛顿法每次迭代只需要根据前次迭代的showImg(‘#’);即可以计算出showImg(‘#’);,不需要求出Hesse矩阵的逆。

2.4 L-BFGS(limited-memory BFGS)

BFGS算法中每次迭代计算需要前次迭代得到的showImg(‘#’);矩阵,该矩阵的存储空间至少为N(N+1)/2,N为特征维数,对于高维的应用场景,需要的存储空间将是非常巨大的。L-BFGS的基本思想就是通过存储前m次迭代的少量数据来替代前一次的showImg(‘#’);矩阵。令y=q,s=p,公式12可以改写成

showImg(‘#’);

公式13展开并取前m项的近似,可得

showImg(‘#’);

由于ρ、V、s、y这些变量都最终可以由q、p两个向量计算得到,因此,我们只需存储最后m次的q、p向量即可算出showImg(‘#’);加上对角阵H0,总共需要存储2*m+1个N维向量(实际应用中m一般取4到7之间的值,因此需要存储的数据远小于Hesse矩阵)。

注:公式4中步长的确定需要使用一维搜索,顾名思义,一维搜索就是沿着直线方向寻找使得目标函数值最小的参数值。一维搜索具体又分为精确一维搜索和非精确一维搜索,具体可参看相关文献。

三、 其他相关方法
由于L-BFGS是建立在目标函数的2阶泰勒展开基础上的,其前提条件就是函数的2阶导不为0。在机器学习中一般如果用L2正则都是可以满足这个条件的。如果用的是L1正则,则目标函数可能出现2阶导为0的情况。对于使用L1正则的情况,可以使用OWL-QN方法(Orthant-Wise Limited-memory Quasi-Newton),它是基于L-BFGS修改的。

据说百度首创了Shooting算法,收敛速度比L-BFGS快得多,目前还不知道怎么做的。

showImg(‘#’);

此外,Chih-Jen Lin(LIBSVM作者)提出的信赖域牛顿方法(Trust Region Newton Method),其收敛速度也比L-BGFS快,他开发的另一个针对大规模线性分类的软件LIBLINEAR用的就是这种优化方法。

showImg(‘#’);

此外,Chih-Jen Lin(LIBSVM作者)提出的信赖域牛顿方法(Trust Region Newton Method),其收敛速度也比L-BGFS快,他开发的另一个针对大规模线性分类的软件LIBLINEAR用的就是这种优化方法。

免费领取验证码、内容安全、短信发送、直播点播体验包及云服务器等套餐

更多网易技术、产品、运营经验分享请访问网易云社区。

文章来源: 网易云社区

赞(0)
未经允许不得转载:优乐评测网 » 优乐综合社区L-BFGS算法介绍

优乐评测网 找服务器 更专业 更方便 更快捷!

专注IDC行业资源共享发布,给大家带来方便快捷的资源查找平台!

联系我们