- Milano
- Dipartimento di Scienze statistiche
- Ricerca
- Informatica e Intelligenza Artificiale
- Modellistica in rappresentazione sparsa
Modellistica in rappresentazione sparsa
Le rappresentazioni sparse si basano sul principio di parsimonia e costituiscono una delle tecniche fondamentali nel machine learning per comprimere e tenere sotto controllo la complessità dei modelli. Questa linea di ricerca esplora metodi e algoritmi per la decomposizione sparsa, applicati a diversi campi quali l'elaborazione dei segnali, la visione artificiale, l'apprendimento automatico e l’analisi dei dati.
Le tecniche sviluppate includono algoritmi di ottimizzazione smooth esaminati dal punto di vista di convergenza e ottimalità, decomposizione sparsa per l'apprendimento di dizionari sovracompleti tramite analisi di Procrustes ortogonale e stime di massima verosimiglianza regolarizzate in modelli logistici sparsi.
I risultati indicano che i modelli sparsi superano i metodi classici in termini di accuratezza, robustezza e interpretabilità, soprattutto in presenza di dati ad alta dimensionalità e strutturalmente ridondanti. I contributi sono rilevanti per le applicazioni nei domini della bioinformatica, del biomedical imaging, dell’elaborazione del linguaggio naturale e delle scienze sociali.
Parole chiave e temi trattati:
Decomposizione sparsa, regressione sparsa, 0-norm, ottimizzazione non convessa, sparse dictionary learning, compressione di segnali, transizione di fase, analisi di Procrustes, principio di parsimonia