本文最后更新于:2023年8月2日 下午

本文介绍二次型优化方法中比较优秀的迭代方法——共轭梯度法。

问题描述

重述我们需要优化的问题:

(1)f(x)=12xTAxbTx+c

  • 矩阵A正定对称
  • 目标为优化x,使得f(x)取得最小值

最速下降法的问题

  • 贪心计算局部最小值
  • 没有全局视野,没有使用真正的模型建模
  • 导致优化过程需要反复迭代才能逐步逼近最优值

轭是一个汉字,读作è,本意是指驾车时套在牲口脖子上的曲木,引申义是束缚,控制。该文字在《仪礼·既夕礼》和《荀子·正论》等文献均有记载。 ——百度百科

  • 数学中很多轭相关的内容,此处的共轭表示相互约束,在某个条件下可以相互作用的意思。

共轭梯度法思想来源

  • 为解决最速下降法来回往复的问题,人们开始思考是否有可以直接在需要优化的二次函数定义下直接对其进行优化,是否可以通过有限步计算得到真正的最优解
  • 那么假设我们使用关于该问题精确的模型而不是近似的局部最优模型,我们如果可以在某个N维空间中,分别计算出最优解的各个维度的坐标,就可以达到上述目的
  • 那么如何设计这个空间,如何可以分步计算并且可以整合成真正的结果,是共轭梯度法来解决的问题
  • 该方法的核心思想是建立一组N维空间线性无关的一组基,理论上这组基的线性组合可以表示空间中任意一点,共轭梯度法通过多次计算,精确求解目标在空间中位置在这组基空间中的各个系数分量,达到求解最优值的目的
  • 该方法和最速下降法却别在精确建模,有了上帝视角,每次迭代计算将该方向需要调整的分量值调整到极致,也就是说之后的计算再也不用考虑该方向上的运动分量了,这是一个精确求解问题的过程,不是逐步简单建模向最优值挪动的逼近过程

共轭基的定义

An阶实对称正定矩阵,如果有两个n维列向量s1s2满足

(2)s1TAs2=0

则称向量s1s2对于矩阵A共轭。如果A为单位矩阵,则式(2)即成为s1s2,这样两个向量的点积为零,此二向量在几何上是正交的,它是共轭的一种特例。

设A为对称正定矩阵,若一组非零向量s1,s2,…,sn满足

(3)siTAsj=0(ij) 则称向量系si(1in)为关于矩阵A共轭。 若si(1in)之间线性无关,那么我们称该向量集合为n维空间中关于矩阵A的一组共轭基。

共轭基的作用

  • 假设有一组关于矩阵A的共轭基D

(4)D=d1,d2,,dn

  • 设二次型函数(1)的极值为x,用D表似为:
(5)x=λ1d1+λ2d2++λndn
  • 因为函数极值处在各个方向的导数为0有:
(6)f(x)=Axb=0Ax=b
  • 我们计算diTAx,根据不同共轭基之间相互共轭:
(7)diTAx=diTA(λ0d0++λn1dn1)=λidiTAdi+0
  • 得到:
(8)λi=diTAxdiTAdi=diTbdiTAdi
  • 对于λi的求解,我们已知的变量为bA,如果我们已经得到了空间中关于A的共轭基(任意一组),我们都可以直接解得λi
  • 这是一个令人振奋的结论,所以我们当前的工作重点转为了如何快速地求得一组关于A的共轭基

根据定义获取共轭基

  • 有了定义,我们不难想到暴力获取共轭基的方法:
循环结束
循环未结束
随机生成n个n维向量
i=1-n循环
剔除向量j=1-i的分量
收集向量1-n
得到向量i
输出共轭基
  • 这套方法下来,我们就可以得到根据定义计算出来的共轭基,带入(8)计算得到极值,没有任何问题
  • 但事实上这个运算量与代数法解Ax=b的过程具有相当的运算复杂度,没有给该优化问题带来性能收益

共轭梯度法

此算法核心步骤与最速下降法相同,分别为寻找共轭方向与计算运动步长。

寻找共轭方向

由于计算梯度简单,寻找共轭梯度的过程依附于梯度方向的计算。

  • 优化目标为x,初始位置为x1,需要求得的共轭基为 D=d1,d2,,dn
  • 计算初始x1位置的梯度,第一个共轭基为梯度的反方向:
(9)d1=g1=(Ax1b)=bAx1
  • i个梯度若要剔除掉第j个共轭基(j<i)方向的分量,需要减去该方向的βj分量:
(10)djTA(giβjdj)=0djTAgi=βjdjTAdjβj=djTAgidjTAdj
  • 因此第k个共轭基为:
(11)dk=gki=1k1diTAgkdiTAdididk=gki=1k1βidi
  • 目前,我们如果可以确定每一次迭代移动的xi的位置,求得gi,那么就可以根据第1到第i1个共轭基确定当前第i个共轭基
  • 因此当前我们的目标是在有了共轭方向后,如何确定在该方向上的运动距离

确定运动距离

已经运动到了xk的位置,下一个前进方向为dk,前进步长αk,误差为ek=xxk,也就是说: (12)xk+1=xk+αkdk

这里介绍两种求前进步长αk的思路。

方法一

确定第k步的运动步长αk,也就是一个共轭基的系数,限制该系数的条件为:

  • 当前共轭基的方向dk与误差向量ek+1=xxk+1共轭: (13)dkTAek+1=dkTA(xxk+1)=dkTA(xxk+xkxk+1)=dkTA(ekαkdk)=dkTAekαkdkTAdk=0
  • 有:

(14)αk=dkTAekdkTAdk=dkTA(xxk)dkTAdk=dkT(AxAxk)dkTAdk=dkT(bAxk)dkTAdk=dkTgkdkTAdk
方法二
f(xk+1)中的αk求导,使得导数为0,计算αk:
  • xk表示xk+1: (15)f(xk+1)=f(xk+αkdk)=12xk+1TAxk+1bT(xk+αkdk)+c
  • f(xk+1)αk求导: (16)f(xk+1|αk)=f(xk+1)xk+1xk+1αk=(Axk+1b)Tdk=(Axk+αkAdkb)Tdk=(αkAdk+gk)Tdk=αkdkTAdk+gkTdk
  • 使导数为0,有: (17)αkdkTAdk+gkTdk=0αk=gkTdkdkTAdk=dkTgkdkTAdk

此时我们已经计算得到了一系列计算共轭梯度的方法,能够依次求得一套共轭基了,但是其中有些步骤仍然可以继续简化计算。

简化计算与一些推论

推论一
  • k步计算的梯度gk和前k1步的共轭向量d1,d1,...,dk1正交:
  • 证明,当i<j时: (18)diTgj=diT(Axjb)=diT(AxjAx)=diT(Axxi+1+xi+1xj)=diTA(ei+1k=i+1j1αkdk)=diTAei+1+k=i+1j1αkdiTAdk
  • (18)左边由于di计算过程(13)为0,右边由于不同的共轭向量间两两共轭值为0,所以最终的值也为0

  • 因此证明了:第k步计算的梯度 gk 和前k1步的共轭向量 d1,d1,...,dk1正交。
推论二
  • k步计算的梯度gk和前k1步的梯度g1,g1,...,gk1正交:
  • 证明,当i<j时:
  • (11)得:

(19)gi=di+k=1i1βkdk
  • 有:
(20)giTgj=(di+k=1i1βkdk)Tgj=k=1iβkdkTgj(βi=1)
  • 根据推论一,式(20)值为0
  • 证得结论:第k步计算的梯度gk和前k1步的梯度g1,g1,...,gk1正交。
  • 那么对于两个不同的梯度gi,gj(ij),那么二者必分前后,因此各个梯度之间相互正交,即G={g1,g2,...,gn}组成了n维空间中的一组正交基
推论三
  • 计算gj+1Tgi: (21)gj+1Tgi=(Axj+1b)Tgi=(A(xj+αjdj)b)Tgi=(Axjb+αjAdj)Tgi=(gj+αjAdj)Tgi=gjTgi+αjdjTAgidjTAgi=1αj(gj+1TgigjTgi)
  • 根据式(21)推论二,由于一般情况下αj不为0,因此对于所有情况为保证(20)成立,需要当ijij+1时,djTAgi=0

  • 这意味着当前的梯度方向与上一个共轭方向之前的和当前之后的所有共轭方向共轭正交

简化计算
  • 对于式(11)中,在求解dk过程中产生的系数β,此处强调一下(10):
βi=diTAgkdiTAdi
  • 推论三(10)中当ikik1时,diTAgk值为0

  • 因此式(11)可以简化为: (22)dk=gki=1k1βidi=gkβk1dk1
  • 即在求解第k个共轭基时,仅需要在当前梯度gk上减去第k1个共轭基的共轭分量即可

推论四
  • 根据简化计算的公式(22),有:
(23)dk=gkβk1dk1=gkβk1(gk1βk2dk2)=gk+γk1gk1+γk2gk2+γ1g1=i=1kγigi
  • 其中固定的常数系数用γ表示
  • 那么有:
(24)giTdj=giTk=1jγkgk=k=1jγkgiTgk
  • (24)根据推论二的结论,值为:
(25)giTdj={0,i>jγigiTgi,ij
  • 即某个梯度与所有共轭基的投影为0或一个常数(对该方法来说不是一个有实用性的结论)

共轭梯度法实操步骤

  • 初始条件:已知A,b,初始位置x1
  • g1=Ax1b
  • d1=g1
  • k=1
  • whilekn:
    • αk=dkTgkdkTAdk
    • xk+1=xk+αkdk
    • gk+1=Axk+1b
    • βk=dkTAgk+1dkTAdk
    • dk+1=gk+1βkdk
    • k=k+1
  • returnxn+1

参考资料



文章链接:
https://www.zywvvd.com/notes/study/machine-learning/conjugate-gradient-algorithm/conjugate-alg/conjugate-alg/


“觉得不错的话,给点打赏吧 ୧(๑•̀⌄•́๑)૭”

微信二维码

微信支付

支付宝二维码

支付宝支付

二次型优化问题 - 6 - 共轭梯度法
https://www.zywvvd.com/notes/study/machine-learning/conjugate-gradient-algorithm/conjugate-alg/conjugate-alg/
作者
Yiwei Zhang
发布于
2020年12月26日
许可协议