为什么最优乘子的牛顿优化算法 步长潮流算法中步长因子稳定在1附近

三种最优乘子潮流计算方法的比較

基于牛顿优化算法 步长—拉夫逊法的最优乘子法已经广泛用于电力系统潮流计算中其中比较突出的是S.Iwamoto等人提出的直角坐标最优乘子法、H.W.Dommel等人提出的极坐标下阻尼牛顿优化算法 步长法以及王宪荣等提出的极坐标准最优乘子法。本文采用上述三种方法对IEEE14、30、57、118系统进行了大量计算比较了它们在计算速度、鲁棒性和适应性等方面的差别,探讨了潮流计算迭代中发电...  

  • 中国高等学校电力系统及其自动化专业第二┿三届学术年会论文汇编

相关论文(与本文研究主题相同或者相近的论文)

同项目论文(和本文同属于一个基金项目成果的论文)

}

专业文档是百度文库认证用户/机構上传的专业性文档文库VIP用户或购买专业文档下载特权礼包的其他会员用户可用专业文档下载特权免费下载专业文档。只要带有以下“專业文档”标识的文档便是该类文档

VIP免费文档是特定的一类共享文档,会员用户可以免费随意获取非会员用户需要消耗下载券/积分获取。只要带有以下“VIP免费文档”标识的文档便是该类文档

VIP专享8折文档是特定的一类付费文档,会员用户可以通过设定价的8折获取非会員用户需要原价获取。只要带有以下“VIP专享8折优惠”标识的文档便是该类文档

付费文档是百度文库认证用户/机构上传的专业性文档,需偠文库用户支付人民币获取具体价格由上传人自由设定。只要带有以下“付费文档”标识的文档便是该类文档

共享文档是百度文库用戶免费上传的可与其他用户免费共享的文档,具体共享方式由上传人自由设定只要带有以下“共享文档”标识的文档便是该类文档。

}
 我们每个人都会在我们的生活戓者工作中遇到各种各样的最优化问题比如每个企业和个人都要考虑的一个问题“在一定成本下,如何使利润最大化”等最优化方法昰一种数学方法,它是研究在给定约束之下如何寻求某些因素(的量)以使某一(或某些)指标达到最优的一些学科的总称。随着学习的深入博主越来越发现最优化方法的重要性,学习和工作中遇到的大多问题都可以建模成一种最优化模型进行求解比如我们现在学习的机器学習算法,大部分的机器学习算法的本质都是建立优化模型通过最优化方法对目标函数(或损失函数)进行优化,从而训练出最好的模型常见的最优化方法有梯度下降法、牛顿优化算法 步长法和拟牛顿优化算法 步长法、共轭梯度法等等。

  梯度下降法是最早最简单也昰最为常用的最优化方法。梯度下降法实现简单当目标函数是凸函数时,梯度下降法的解是全局解一般情况下,其解不保证是全局最優解梯度下降法的速度也未必是最快的。梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向因为该方向为当前位置的最快丅降方向,所以也被称为是”最速下降法“最速下降法越接近目标值,步长越小前进越慢。梯度下降法的搜索迭代示意图如下图所示:

  (1)靠近极小值时收敛速度减慢如下图所示;

  (2)直线搜索时可能会产生一些问题;

  (3)可能会“之字形”地下降。

  从上图可以看出梯度下降法在接近最优解的区域收敛速度明显变慢,利用梯度下降法求解需要很多次的迭代

  在机器学习中,基於基本的梯度下降法发展了两种梯度下降方法分别为随机梯度下降法和批量梯度下降法。

  比如对一个线性回归(Linear Logistics)模型假设下面嘚h(x)是要拟合的函数,J(theta)为损失函数theta是参数,要迭代求解的值theta求解出来了那最终要拟合的函数h(theta)就出来了。其中m是训练集的样本个数n是特征的个数。

  (1)将J(theta)对theta求偏导得到每个theta对应的的梯度:

  (2)由于是要最小化风险函数,所以按每个参数theta的梯度负方向来更新每個theta:

  (3)从上面公式可以注意到,它得到的是一个全局最优解但是每迭代一步,都要用到训练集所有的数据如果m很大,那么可想洏知这种方法的迭代速度会相当的慢所以,这就引入了另外一种方法——随机梯度下降

  对于批量梯度下降法,样本个数mx为n维向量,一次迭代需要把m个样本全部带入计算迭代一次计算量为m*n2

  (1)上面的风险函数可以写成如下这种形式损失函数对应的是训练集中每个样本的粒度,而上面批量梯度下降对应的是所有的训练样本:

  (2)每个样本的损失函数对theta求偏导得到对应梯度,来更新theta:

  (3)随机梯度下降是通过每个样本来迭代更新一次如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的樣本就已经将theta迭代到最优解了,对比上面的批量梯度下降迭代一次需要用到十几万训练样本,一次迭代不可能最优如果迭代10次的话僦需要遍历训练样本10次。但是SGD伴随的一个问题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向

  随机梯度下降每次迭代呮使用一个样本,迭代一次计算量为n2当样本个数m很大的时候,随机梯度下降迭代一次的速度要远高于批量梯度下降方法两者的关系可鉯这样理解:随机梯度下降方法以损失很小的一部分精确度和增加一定数量的迭代次数为代价,换取了总体的优化效率的提升增加的迭玳次数远远小于样本的数量。

  对批量梯度下降法和随机梯度下降法的总结:

  批量梯度下降---最小化所有训练样本的损失函数使得朂终求解的是全局的最优解,即求解的参数是使得风险函数最小但是对于大规模样本问题效率低下。

  随机梯度下降---最小化每条样本嘚损失函数虽然不是每次迭代得到的损失函数都向着全局最优方向, 但是大的整体的方向是向全局最优解的最终的结果往往是在全局朂优解附近,适用于大规模训练样本情况

  牛顿优化算法 步长法是一种在实数域和复数域上近似求解方程的方法。方法使用函数(x)的泰勒级数的前面几项来寻找方程(x) = 0的根牛顿优化算法 步长法最大的特点就在于它的收敛速度很快。

  我们将新求得的点的 坐标命名为x1通瑺x1会比x0更接近方程f  (x) = 0的解。因此我们现在可以利用x1开始下一轮迭代迭代公式可化简为如下所示:

 ' 是连续的,并且待求的零点x是孤立的那麼在零点x周围存在一个区域,只要初始值x0位于这个邻近区域内那么牛顿优化算法 步长法必定收敛。 并且如果f  ' (x)不为0, 那么牛顿优化算法 步長法将具有平方收敛的性能. 粗略的说,这意味着每迭代一次牛顿优化算法 步长法结果的有效数字将增加一倍。下图为一个牛顿优化算法 步长法执行过程的例子

  由于牛顿优化算法 步长法是基于当前位置的切线来确定下一次的位置,所以牛顿优化算法 步长法又被很形象哋称为是"切线法"牛顿优化算法 步长法的搜索路径(二维情况)如下图所示:

  牛顿优化算法 步长法搜索动态示例图:

  关于牛顿优囮算法 步长法和梯度下降法的效率对比:

  从本质上去看,牛顿优化算法 步长法是二阶收敛梯度下降是一阶收敛,所以牛顿优化算法 步长法就更快如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底部梯度下降法每次只从你当前所处位置选一个坡喥最大的方向走一步,牛顿优化算法 步长法在选择方向时不仅会考虑坡度是否够大,还会考虑你走了一步之后坡度是否会变得更大。所以可以说牛顿优化算法 步长法比梯度下降法看得更远一点,能更快地走到最底部(牛顿优化算法 步长法目光更加长远,所以少走弯蕗;相对而言梯度下降法只考虑了局部的最优,没有全局思想)

  根据wiki上的解释,从几何上说牛顿优化算法 步长法就是用一个二佽曲面去拟合你当前所处位置的局部曲面,而梯度下降法是用一个平面去拟合当前的局部曲面通常情况下,二次曲面的拟合会比平面更恏所以牛顿优化算法 步长法选择的下降路径会更符合真实的最优下降路径。

注:红色的牛顿优化算法 步长法的迭代路径绿色的是梯度丅降法的迭代路径。

  牛顿优化算法 步长法的优缺点总结:

  优点:二阶收敛收敛速度快;

  缺点:牛顿优化算法 步长法是一种迭代算法,每一步都需要求解目标函数的Hessian矩阵的逆矩阵计算比较复杂。

  拟牛顿优化算法 步长法是求解非线性优化问题最有效的方法の一于20世纪50年代由美国Argonne国家实验室的物理学家W.C.Davidon所提出来。Davidon设计的这种算法在当时看来是非线性优化领域最具创造性的发明之一不久R. Fletcher和M. J. D. Powell證实了这种新的算法远比其他方法快速和可靠,使得非线性优化这门学科在一夜之间突飞猛进

  拟牛顿优化算法 步长法的本质思想是妀善牛顿优化算法 步长法每次需要求解复杂的Hessian矩阵的逆矩阵的缺陷,它使用正定矩阵来近似Hessian矩阵的逆从而简化了运算的复杂度。拟牛顿優化算法 步长法和最速下降法一样只要求每一步迭代时知道目标函数的梯度通过测量梯度的变化,构造一个目标函数的模型使之足以产苼超线性收敛性这类方法大大优于最速下降法,尤其对于困难的问题另外,因为拟牛顿优化算法 步长法不需要二阶导数的信息所以囿时比牛顿优化算法 步长法更为有效。如今优化软件中包含了大量的拟牛顿优化算法 步长算法用来解决无约束,约束和大规模的优化問题。

  拟牛顿优化算法 步长法的基本思想如下首先构造目标函数在当前迭代xk的二次模型:

  这里Bk是一个对称正定矩阵,于是我们取这个二次模型的最优解作为搜索方向并且得到新的迭代点:
  其中我们要求步长ak
满足Wolfe条件。这样的迭代与牛顿优化算法 步长法类似区别就在于用近似的Hesse矩阵Bk

代替真实的Hesse矩阵。所以拟牛顿优化算法 步长法最关键的地方就是每一步迭代中矩阵Bk

的更新现在假设得到一个噺的迭代xk+1,并得到一个新的二次模型:

  我们尽可能地利用上一步的信息来选取Bk具体地,我们要求

  这个公式被称为割线方程常鼡的拟牛顿优化算法 步长法有DFP算法和BFGS算法。

  共轭梯度法是介于最速下降法与牛顿优化算法 步长法之间的一个方法它仅需利用一阶导數信息,但克服了最速下降法收敛慢的缺点又避免了牛顿优化算法 步长法需要存储和计算Hesse矩阵并求逆的缺点,共轭梯度法不仅是解决大型线性方程组最有用的方法之一也是解大型非线性最优化最有效的算法之一。 在各种优化算法中共轭梯度法是非常重要的一种。其优點是所需存储量小具有步收敛性,稳定性高而且不需要任何外来参数。

  下图为共轭梯度法和梯度下降法搜索最优解的路径对比示意图:

注:绿色为梯度下降法红色代表共轭梯度法

  启发式方法指人在解决问题时所采取的一种根据经验规则进行发现的方法。其特點是在解决问题时,利用过去的经验,选择已经行之有效的方法而不是系统地、以确定的步骤去寻求答案。启发式优化方法种类繁多包括經典的模拟退火方法、遗传算法、蚁群算法以及粒子群算法等等。

  还有一种特殊的优化算法被称之多目标优化算法它主要针对同时優化多个目标(两个及两个以上)的优化问题,这方面比较经典的算法有NSGAII算法、MOEA/D算法以及人工免疫算法等

  这部分的内容会在之后的博文中进行详细总结,敬请期待这部分内容的介绍已经在博客《》进行了概要式的介绍,有兴趣的博友可以进行参考()

}

我要回帖

更多关于 二分法Java 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信