下面感谢和借用中山大学谢亮教授的一个最优化理论课程进行说明,链接在文末~
外罚函数主要思想:引入一个罚函数项,当其在可行域范围内时为0,即不影响,但如果超出可行域,则罚函数会很大,使得其倾向于往可行域方向前进。
缺点:如果一开始起点不在可行域内,最终的解也是不在可行域范围内的,这在实际情况不允许。另外,存在的问题就是罚参数σ\sigmaσ的取值问题,它需要取的很大,但是这样会导致增广目标函数P(x,σk)P(x,\sigma_{k})P(x,σk)趋于病态,由此,乘子法被提出解决该问题。
考虑以下问题:
其对应的增强拉格朗日函数(augmented Lagrangian)为:
重点来了,交替求解原始变量x1,x2x_{1},x{2}x1,x2和对偶变量ν\nuν.
要注意的是对偶变量要在原始变量更新后更新。
下面感谢和参考一篇博客的例子和代码,链接放在文末~
其中关于 x 和 y的更新过程需要结合具体的下降类算法,如梯度下降算法等,这里采用matlab自带的quadprog算法,而对于不等式的处理,用到了内点法。
% 求解下面的最小化问题:
% min_{x,y} (x-1)^2 + (y-2)^2
% s.t. 0 \leq x \leq 3
% 1 \leq y \leq 4
% 2x + 3y = 5% augumented lagrangian function:
% L_{rho}(x,y,lambda) = (x-1)^2 + (y-2)^2 + lambda*(2x + 3y -5) + rho/2(2x + 3y -5)^2
% solve x min f(x) = (x-1)^2 + lambda*(2x + 3y -5) + rho/2(2x + 3y -5)^2,s.t. 0<= x <=3
% solve y min f(y) = (y-2)^2 + lambda*(2x + 3y -5) + rho/2(2x + 3y -5)^2, s.t. 1<= y <=4
% sovle lambda :update lambda = lambda + rho(2x + 3y -5)
% rho ,we set rho = min(rho_max,beta*rho) beta is a constant ,we set to 1.1,rho0 = 0.5;% x0,y0 都为1是一个可行解。
param.x0 = 1;
param.y0 = 1;
param.lambda = 1;
param.maxIter = 30;
param.beta = 1.1; % a constant
param.rho = 0.5;
param.rhomax = 2000;[Hx,Fx] = getHession_F('f1');
[Hy,Fy] = getHession_F('f2');param.Hx = Hx;
param.Fx = Fx;
param.Hy = Hy;
param.Fy = Fy;% solve problem using admm algrithm
[x,y] = solve_admm(param);% disp minimum
disp(['[x,y]:' num2str(x) ',' num2str(y)]);function [H,F] = getHession_F(fn)
% fn : function name
% H :hessian matrix
% F :一次项系数
syms x y lambda rho;
if strcmp(fn,'f1')f = (x-1)^2 + lambda*(2*x + 3*y -5) + rho/2*(2*x + 3*y -5)^2;H = hessian(f,x);F = (2*lambda + (rho*(12*y - 20))/2 - 2);%%%%%%%%%%%%%%%%%%%%%%%%%%%%fcol = collect(f,{'x'});disp(fcol);
elseif strcmp(fn,'f2')f = (y-2)^2 + lambda*(2*x + 3*y -5) + rho/2*(2*x + 3*y -5)^2;H = hessian(f,y);F = (3*lambda + (rho*(12*x - 30))/2 - 4);fcol = collect(f,{'y'});disp(fcol);
end
% fcol = collect(f,{'x'});
% fcol = collect(f,{'y'});
% disp(fcol);
endfunction [x,y] = solve_admm(param)x = param.x0;
y = param.y0;
lambda = param.lambda;
beta = param.beta;
rho = param.rho;
rhomax = param.rhomax;
Hx = param.Hx;
Fx = param.Fx;
Hy = param.Hy;
Fy = param.Fy;
%%
options = optimoptions('quadprog','Algorithm','interior-point-convex');
xlb = 0;
xub = 3;
ylb = 1;
yub = 4;
maxIter = param.maxIter;
i = 1;
% for plot
funval = zeros(maxIter-1,1);
iterNum = zeros(maxIter-1,1);
while 1if i == maxIterbreak;end% solve xHxx = eval(Hx);Fxx = eval(Fx);x = quadprog(Hxx,Fxx,[],[],[],[],xlb,xub,[],options);% descend% solve yHyy = eval(Hy);Fyy = eval(Fy);y = quadprog(Hyy,Fyy,[],[],[],[],ylb,yub,[],options);%descend% update lambdalambda = lambda + rho*(2*x + 3*y -5); % ascendrho = min(rhomax,beta*rho);funval(i) = compute_fval(x,y);iterNum(i) = i;i = i + 1;
endplot(iterNum,funval,'-r');endfunction fval = compute_fval(x,y)
fval = (x-1)^2 + (y-2)^2;
end
[x,y]:0.53849,1.3077
为了进一步简化增强拉格朗日函数,因而有了下面的形式
Lρ(x1,x2,w)=f(x1)+f(x2)+ρ2∥Ax1+Bx2−c+w∥22−ρ2∥w∥22L_\rho(x_{1}, x_{2}, w)=f(x_{1})+f(x_{2})+\frac{\rho}{2}\|A x_{1}+Bx_{2}-c+w\|_2^2-\frac{\rho}{2}\|w\|_2^2 Lρ(x1,x2,w)=f(x1)+f(x2)+2ρ∥Ax1+Bx2−c+w∥22−2ρ∥w∥22
其中w=νρw = \frac{\nu}{\rho}w=ρν,具体推理比较简单,就不展开啦,可以参考文末链接4,里面有详细推理过程。
可以从上面2.1看到其实在目标函数中,x1x_{1}x1和x2x_{2}x2是解耦合的,可以单独用f(x1f(x_{1}f(x1和f(x2)f(x_{2})f(x2)来表示,但是在更多的情况下,目标函数中的各个决策变量是耦合的,那么怎么将各个变量解耦合,从而利用ADMM算法作为一种分布式优化算法的一个优势呢,可以利用下面的方案。
1.https://www.bilibili.com/video/BV1CF411F7gN/?spm_id_from=333.999.0.0&vd_source=d813804d2277848d9adad3f41a2903af(外罚函数方法、乘子法)
2.KKT Conditions, First-Order and Second-Order Optimization, and Distributed Optimization: Tutorial and Survey (ADMM)
3.https://blog.csdn.net/raby_gyl/article/details/58108415( ADMM具体例子和求解代码)
4.https://blog.csdn.net/weixin_44655342/article/details/121899501(ADMM缩放形式)
下一篇:【C++】多态