Autores

7512
2740,603,3251
7513
2740,603,3251
7514
Jon Lee
(Co-orientador)
2740,603,3251

Informações:

Publicações do PESC

Título
On the Computation of Sparse Reflexive Generalized Inverses
Linha de pesquisa
Otimização
Tipo de publicação
Dissertação de Mestrado
Número de registro
Data da defesa
19/12/2024
Resumo

A pseudo-inversa de Moore-Penrose (M-P) pode ser usada em várias aplicações de álgebra linear; por exemplo, para calcular soluções de mínimos quadrados de sistemas lineares inconsistentes. Entretanto, independentemente de uma dada matriz ser esparsa, sua pseudo-inversa pode ser completamente densa, levando potencialmente a um alto custo computacional e dificuldades numéricas, especialmente ao lidarmos com matrizes de alta dimensão. A pseudo-inversa M-P é caracterizada por quatro propriedades, mas nem todas precisam ser atendidas para algumas aplicações. Nesta dissertação, aplicamos otimização matemática para induzir esparsidade geral e esparsidade estruturada em inversas generalizadas de uma dada matriz que satisfaz somente subconjuntos específicos das propriedades M-P. Utilizamos minimização da norma-1 (vetorial) para induzir esparsidade geral (não-estruturada) e a minimização da norma-2,1 para induzir esparsidade (estruturada) em linhas. A esparsidade estruturada é útil, não apenas por causa da eficiência computacional, mas também pela explicabilidade. No contexto da aplicação dos mínimos quadrados, é desejável ter esparsidade em linhas, ou seja, ter poucas linhas não nulas na inversa generalizada, pois assim o modelo linear associado é mais explicável. Mais especificamente, a teoria dos mínimos quadrados conecta variáveis explicativas a variáveis de resposta (observações), por meio de um modelo de regressão linear no qual os parâmetros desconhecidos da relação linear são estimados pela solução dos mínimos quadrados. A esparsidade em linhas corresponde à seleção de um pequeno número de variáveis explicativas para determinar o modelo linear. Nós também investigamos a aplicação de procedimentos de busca local para construir inversas generalizadas com esparsidade estruturada, posto pequeno e com controle da magnitude das entradas.

Abstract

The well-known Moore-Penrose (M-P) pseudoinverse is used in several linear-algebra applications; for example, to compute least-squares solutions of inconsistent systems of linear equations. Irrespective of whether a given matrix is sparse, its M-P pseudoinverse can be completely dense, potentially leading to high computational burden and numerical difficulties, especially when we are dealing with high-dimensional matrices. The M-P pseudoinverse is uniquely characterized by four properties, but not all of them need to be satisfied for some applications. In this dissertation, we apply mathematical optimization to induce general sparsity and structured sparsity on generalized inverses of a given matrix, which satisfy only specific subsets of the M-P properties. We use 1-norm (vector) minimization to induce (unstructured) sparsity and 2,1-norm minimization to induce (structured) row-sparsity. Structured sparsity is useful, not only because of computational efficiency, but also for explainability. In the context of the least-squares application it is desirable to have row-sparsity, i.e., to have few non-zero rows on the generalized inverse, as then the associated linear model is more explainable. More specifically, least-squares theory connects explanatory variables to predicted variables (observations), through a linear regression model in which the unknown parameters of the linear relation are estimated by the least-squares solution. Row-sparsity corresponds to the selection of a small number of explanatory variables to determine a linear model. We also consider the application of local-search procedures that produce generalized inverses with guaranteed structured sparsity, with low rank, and with entries under control. 

Arquivo
Topo