Differential geometry is the set of tools that allows to perform the usual mathematical tasks of algebra and calculus on spaces that do not behave like Euclidean vector spaces, for instance points on a curved surface. This field of mathematics is becoming more and more relevant in multiple fields, statistics and machine learning among those, due to the enormous availability of data belonging to increasingly complex domains. An example among many of such complex domains is the set of Symmetric and Positive Definite matrices, i.e. the set of covariance matrices, that appears frequently in medical imaging but is also used often as parameter space in statistical modeling scenarios. The aim of this thesis is to collect and organize the scattered knowledge on the Riemannian geometry of the symmetric and positive definite matrices, and to build practical techniques using the tools of differential geometry that can be readily applied within a pipeline of statistical analysis. This has been achieved with two different methods: the first is a quasi-Newton algorithm for Riemannian optimization that can be plugged in any situation in which maximization of a function of symmetric and positive definite matrices is required, such as those that arise in the context of likelihood inference and variational approximation. The second is a Riemannian registration algorithm to perform a pre-processing of symmetric and positive definite data such as those arising from medical imaging or brain computer interface. This algorithm, among other properties, provides a theoretical framework to focus the analysis on the eigenvalues of the analyzed matrices, allowing the employment of Euclidean methods for statistical inference also in a Riemannian context.
La geometria differenziale è un insieme di strumenti che permette di compiere le tipiche operazioni di algebra e calcolo anche in spazi che non seguono le normali regole Euclidee degli spazi vettoriali, ad esempio come i punti di una superficie curva. Questo campo della matematica sta assumendo sempre maggiore rilevanza in vari ambiti, fra cui statistica e machine learning, a causa dell’enorme disponibilità di dati che appartengono a domini sempre più complessi. Un esempio di dominio di questo tipo è l’insieme delle matrici simmetriche e definite positive, ovvero le matrici di covarianza, che compaiono frequentemente nella diagnostica medica per immagini e sono spesso usate come spazio parametrico nei modelli statistici. Lo scopo di questa tesi è quello di raccogliere e organizzare la conoscenza sparsa sulla geometria Riemanniana delle matrici simmetriche e definite positive e di costruire delle tecniche pratiche, usando gli strumenti della geometria differenziale, che possano essere applicate direttamente in contesti di analisi statistica. Questo obiettivo è stato perseguito attraverso lo sviluppo di due metodi: il primo è un algoritmo di tipo quasi-Newton per l’ottimizzazione Riemanniana che può essere utilizzato in qualsiasi situazione in cui sia necessaria la massimizzazione di funzioni di matrici simmetriche e definite positive, come quelle che emergono nel contesto della inferenza di verosimiglianza e nella approssimazione variazionale. Il secondo è un algoritmo di registrazione Riemanniana per eseguire il pre-processamento di dati simmetrici e definiti positivi come quelli che si ottengono nella diagnostica medica per immagini o nelle interfacce cervello-computer. Questo algoritmo, fra le altre sue proprietà, fornisce una struttura teorica che consente di concentrare l’analisi sugli autovalori delle matrici analizzate, permettendo l’utilizzo di metodi Euclidei per l’inferenza statistica anche in un contesto Riemanniano.
Geometria differenziale delle matrici simmetriche e definite positive per applicazioni statistiche / Schiavon, Jacopo. - (2022 May 05).
Geometria differenziale delle matrici simmetriche e definite positive per applicazioni statistiche
SCHIAVON, JACOPO
2022
Abstract
Differential geometry is the set of tools that allows to perform the usual mathematical tasks of algebra and calculus on spaces that do not behave like Euclidean vector spaces, for instance points on a curved surface. This field of mathematics is becoming more and more relevant in multiple fields, statistics and machine learning among those, due to the enormous availability of data belonging to increasingly complex domains. An example among many of such complex domains is the set of Symmetric and Positive Definite matrices, i.e. the set of covariance matrices, that appears frequently in medical imaging but is also used often as parameter space in statistical modeling scenarios. The aim of this thesis is to collect and organize the scattered knowledge on the Riemannian geometry of the symmetric and positive definite matrices, and to build practical techniques using the tools of differential geometry that can be readily applied within a pipeline of statistical analysis. This has been achieved with two different methods: the first is a quasi-Newton algorithm for Riemannian optimization that can be plugged in any situation in which maximization of a function of symmetric and positive definite matrices is required, such as those that arise in the context of likelihood inference and variational approximation. The second is a Riemannian registration algorithm to perform a pre-processing of symmetric and positive definite data such as those arising from medical imaging or brain computer interface. This algorithm, among other properties, provides a theoretical framework to focus the analysis on the eigenvalues of the analyzed matrices, allowing the employment of Euclidean methods for statistical inference also in a Riemannian context.File | Dimensione | Formato | |
---|---|---|---|
tesi_definitiva_Jacopo_Schiavon.pdf
accesso aperto
Descrizione: tesi_definitiva_Jacopo_Schiavon
Tipologia:
Tesi di dottorato
Dimensione
1.01 MB
Formato
Adobe PDF
|
1.01 MB | Adobe PDF | Visualizza/Apri |
Pubblicazioni consigliate
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.