Uma Nova Classe de Métodos de Ponto Proximal com Métrica Variável para Problemas em Otimização com Restrições de Positividade
Autores
2119 |
304,303,905
|
|
2120 |
304,303,905
|
|
2121 |
304,303,905
|
Informações:
Publicações do PESC
Neste trabalho introduzimos uma família de métodos interior-proximal com métrica variável para resolver o problema min f(x) s.t.x > 0, onde o passo iterativo é dado por
xkj + l = xkj (1 - Bk - 1 (xkj) r - l [Vf (xk + l)] j)
com Bk convenientemente escolhido, e r > 1. Estebelecemos propriedades de con- vergência similares aquelas conhecidas dos métodos multiplicativos, a saber. con- vergência fraca a um ponto KKT para funções convexas com gradiente Lipschitziano e convergência forte a uma solução para funções estritamente convexas. No caso quadrático, o algoritmo tem uma expressão explícita. Estudamos a taxa de con- vergência deste método. Mostramos que a taxa de convergência é linear quando a função é fortemente convexa no ótimo, e sublinear caso contrário. Uma versão inexata é introduzida e analisada.
In this work we introduce a family of variable metric interior-proximal methods for the problem min f(x) s.t.x >_ 0, where the iterative step is given by
xkj + l = xkj (1 - Bk - 1 (xkj) r - l [Vf (xk + l)] j)
with, Bk conveniently chosen, and r > 1. We establish convergence properties similar to those known for multiplicative methods, namely weak convergence to a KKT point for convex and gracfient Lipschitzian functions and full convergence to the solution for strictly convex functions. In the quadratic case the algorithm has explicit expression. We study the convergence rate of that method. We show that the rate of convergence is linear when the objective is strongly convex at the optimum, but can be sublinear otherwise. An inexact version is introduced and analyzed.