Università Cattolica del Sacro Cuore

2010

Prof. Luigi Salmaso e Prof. Livio Corain, Università di Padova

Venerdì 26 Novembre 2010

Multivariate permutation tests and multivariate ranking methods with application to the evaluation of educational services and industrial products

The short course will give a general overview to the theory of combination-based permutation tests for facing complex statistical problems. Along with nonparametric permutation testing a novel methodology to construct global rankings starting from a set of univariate rankings is introduced.
Inferential problems from the evaluation of educational services and quality of products are presented as application examples along with the standalone software NPC Test R10.

 

Jordan Stoyanov, Newcastle University, U.K.

Mercoledì 30 Giugno

Moment Analysis of the Distributions of Transformations of Random Data

As we know, the classical skewness and kurtosis coefficients involve only the first few moments. We can go further and try to analyze properties of a distribution by using a larger but fixed number of moments, and finally by using the whole infinite moment sequence. Here is a challenging phenomenon: there are distributions which are non-uniquely determined by their moments. This affects significantly any inference for the distribution. Hence we need to know conditions under which a distribution is unique in terms of its moments (M-determinate) and other conditions implying non-uniqueness (M-indeterminate). We will relate these properties to practical problems.
After a brief account of classical criteria, we turn to, and concentrate on, recent ideas and results. The new tools allow us to study Box-Cox functional transformations of random data and characterize the moment determinacy of their distributions.
All statements will be well-illustrated by popular distributions such as Exp, N, SN, LogN, Log-SN, Gamma, Poisson, IG, etc. Some of the reported facts are not so well-known, they look a little surprising and even shocking. But they are all interesting and useful.
The material will be addressed to professional researchers and teachers in Statistics and Stochastic Modelling, however Doctoral and Master students in this area can also well benefit. If time permits, some open questions will be outlined.

 

Prof.ssa Grazia Vicario, Politecnico di Torino

10 Giugno 2010

Computer Experiments: modellazione Kriging, piani sperimentali e previsioni

Nel corso degli ultimi decenni si assiste, con una tendenza crescente, alla sostituzione, almeno in parte, dell'esperimento fisico con quello numerico, sia perché la sperimentazione fisica in certi casi risulta inaccessibile o eccessivamente costosa, sia perché i programmi di calcolo (codici) diventano uno strumento di uso sempre più facile ed economico nello sviluppo di processo/prodotto. Essi possono rappresentare sistemi anche molto complessi e consentire di ridurre l'impegno in fase di sperimentazione, limitando al minimo indispensabile la costruzione di costosi prototipi. Una sempre più diffusa disponibilità di mezzi di calcolo, ed i continui sviluppi del software applicativo, facilitano l'accesso alla simulazione numerica di sistemi complessi resa così preferibile all'esecuzione di lunghe e costose prove sperimentali nella fase di sviluppo di processo/prodotto.
Se l'inizio ufficiale dei Computer Experiments (CE) è da attribuire ad un articolo di McKay et al. (1979), dieci anni dopo Sachs J. et al. (1989) contribuirono alla loro modellazione segnando un nuovo passo in avanti. I modelli Kriging, che in origine erano stati sviluppati per le applicazioni in campo geologico, sono stati proposti nei CE con crescente consenso e successo come uno strumento atto a fornire previsioni accurate di un codice numerico che è notoriamente deterministico. Alcuni ricercatori, andando contro corrente ma ritornando in un certo senso alle origini della modellazione Kriging, hanno dimostrato come questi modelli siano efficienti anche in un contesto di sperimentazione fisica. Sfruttando la loro riconosciuta capacità di previsione, vengono utilizzati per costruire esperimenti sequenziali in diversi settori dell'ingegneria (ad esempio nella costruzione di piani di ispezione per verificare l'osservanza dei prodotti industriali, o di loro parti, alle specifiche dimensionali e geometriche mediante l'uso delle Macchine di Misura a Coordinate).
In un simile contesto, è abbastanza evidente che la scelta dei punti sperimentali (o training points) deve essere fatta accuratamente dal momento che l'obiettivo è studiare come le risposte sperimentali variano quando le variabili input sono settate ai valori di interesse. Se nella sperimentazione fisica al ricercatore viene richiesto di adempiere ad un protocollo (Design of Experiments, D.o.E.) in modo da ottenere corrette inferenze, sfortunatamente nella pianificazione di un CE, qualora venga usato come un surrogato di quello fisico, l'applicabilità dei principi base del D.o.E. è messa in dubbio. Tutto ciò porta a provvedere efficienti strategie di campionamento nello spazio delle variabili input. Siccome i pionieri della modellazione dei CE asseriscono che l'output può essere previsto assumendo che le risposte siano Gaussiane con covarianza che dipende dalla distanza tra i punti, come previsto dalla modellazione Kriging (Krige, 1951; Cressie, 1993), il principio che sta alla base è che un punto, nel quale si vogliono fare delle previsioni, tanto più vicino è ai punti sperimentali tanto migliore è la previsione. Basandosi su questo punto di vista, una buona strategia sperimentale consiste nel distribuire uniformemente i punti nella regione sperimentale. Il che porta all'utilizzo dei così detti space-filling design (Random design, Stratified design e Latin Hypercube design). I primi due design non sono del tutto soddisfacenti perché non sono space filling marginalmente, cioè nelle singole direzioni, e soprattutto quando si ha a che fare con pochi punti sperimentali; mentre anche se i Latin Hypercube (LH) designs non sono del tutto soddisfacenti dal punto di vista della copertura dello spazio campionario, lo sono sicuramente per lo riempimento nelle singole direzioni e con un qualsiasi numero di punti. E' anche possibile esplorare quali LH sono i migliori comparando le diverse capacità di previsione, a parità di numero di punti sperimentali, in alcune situazioni particolari.
In questo seminario verranno presentate tecniche di modellazione e di pianificazione di un esperimento simulato secondo la letteratura più recente. Una parte del seminario sarà dedicata alla presentazione di alcuni casi studio nei quali è stato sostituito l'esperimento fisico con quello simulato.

 

Dott.ssa Valeria Bordone, Università di Mannheim

Venerdì 14 Maggio 2010

Social support: can it be too much?

In the nowadays world of population ageing, the debate on elderly care is becoming of extreme importance. Despite the concern about a possible crisis of the family in modern societies, elderly parents still receive substantial support from their adult children. The literature suggests that social support positively affect elderly people´s health through several paths. Yet, there might be a limit to the improvement of well-being due to "too much" support resulting in feelings of powerfulness. Avoiding the potential cycle of increasing dependency and self-sufficiency erosion among vulnerable elderly provided with copious assistance should be a priority to couple support and well-being in old age. In contrast to previous studies, I test the association between three types of social support (informational-appraisal, emotional and instrumental) from one source (the adult children) and a specific individual characteristic, Locus of Control. The empirical analysis uses a fixed-effects approach on the English Longitudinal Study of Ageing (ELSA). The results show a curvilinear relationship between child´s support to the parent and locus of control of the elderly, net of the selection in support due to health changes. Although no general formula can establish how much support fits each person, this study raises some critical implications on current social policy and on the need to take into account the sense of control of the fragile elderly population.

 

Prof. Alessandro Rosina in collaborazione con il DEFAP

Giovedì 29 Aprile 2010

Generazione in crisi. Essere Giovani nell'Italia degli Anni Dieci

Il peso demografico dei giovani italiani è in continua diminuzione. Nei prossimi dieci anni entreranno nell'età adulta generazioni particolarmente leggere dal punto di vista quantitativo. Per mantenere adeguati livelli di crescita e sviluppo è cruciale rispondere a tale contrazione favorendo un ingresso attivo e pieno delle nuove generazioni nei vari ambiti della vita pubblica, sociale ed economica del Paese. E invece, i giovani italiani, non solo sono di meno rispetto ai coetanei degli altri grandi Paesi sviluppati, ma continuano a trovare anche meno spazi e minori possibilità di valorizzazione nella società e nel mondo del lavoro. Rimangono troppo a lungo a carico dei genitori e posticipano in modo accentuato le varie tappe di acquisizione delle responsabilità adulte. Alle carenze del sistema di welfare pubblico si è recentemente sommata la recessione economica che ha colpito con particolare intensità proprio i più giovani e che rischia di compromettere persistentemente le loro prospettive di vita.
Nelle relazioni introduttive del seminario verrà fornito un quadro empirico, con particolare attenzione alle implicazioni delle trasformazioni demografiche in corso e all'impatto economico dell'attuale crisi. Nella tavola rotonda verranno discussi strumenti e proposte che possano consentire alle nuove generazioni di riacquistare peso e valore a servizio di una nuova fase di crescita nell'Italia post-crisi.

Programma
Relazioni: Il quadro e gli scenari
Alessandro ROSINA, Università Cattolica del Sacro Cuore
Roberto TORRINI, Banca d'Italia

Presiede Giulia RIVELLINI, Università Cattolica del Sacro Cuore

Tavola Rotonda: Gli strumenti e le proposte
Eleonora VOLTOLINA, direttore della Repubblica degli Stagisti
Nicoletta VITTADINI, Università Cattolica del Sacro Cuore
Marco ALBERTINI, Università degli studi di Bologna
Sergio NAVA, giornalista di Radio24
Luca QUARATINO, Fondazione ISTUD

Modera Paolo BALDUZZI, Università Cattolica del Sacro Cuore

 

Prof. B. Vittorio FROSINI, Università Cattolica del Sacro Cuore

Venerdì 26 marzo 2010

Un metodo di stima robusto con applicazione alla distribuzione normale di ordine p

Il metodo di stima proposto prende lo spunto dai risultati di una ricerca sui "criteri ottimali nella ricerca di statistiche descrittive" (su "Statistica", 1977); in tale ricerca si determina una sintesi - mediante una v.c. discreta con funzione di ripartizione , avente k valori equiprobabili i - di una qualsiasi v.c. unidimensionale con funzione di ripartizione . I valori i sono determinati mediante la minimizzazione delle più comuni "distanze" tra le funzioni  e  (dieci in tutto). Il risultato notevole è che tutti i criteri di adattamento producono la stessa funzione , tale che (i) = (i - 0,5)/k (i = 1, ... ,k). La trasposizione di questo risultato nella teoria della stima puntuale consiste semplicemente nell'impostare un sistema di k equazioni (se i parametri di  sono in numero di k), mediante le quali si eguagliano i k percentili della sintesi ottimale teorica di  (funzioni in generale dei k parametri) ai corrispondenti percentili campionari.
Questo metodo di stima robusto è applicato alla stima dei tre parametri della distribuzione normale di ordine p (che si riduce alla usuale distribuzione normale per p = 2); si tratta di una distribuzione simmetrica, il cui parametro di forma p (> 0) consente di trattare tutti i casi di curtosi che si possono manifestare.
Si osserva subito che nel caso in questione, allo scopo di ottenere un sistema con tre equazioni funzionalmente indipendenti, la funzione di sintesi  deve essere determinata con 5 valori i (percentili di ordine 0.1, 0.3, 0.5, 0.7, 0.9). Mentre la stima della mediana di  è data semplicemente dalla mediana campionaria, la stima degli altri due parametri è facilitata dalla costruzione di due tabelle numeriche, mediante le quali si ottengono buone approssimazioni delle stime, senza necessità di ricorrere a programmi matematici.
Una serie di simulazioni ha permesso il confronto delle suddette stime (riguardo a distorsione e dispersione) con analoghe stime ricavate mediante altri sistemi di equazioni, ottenute col metodo misto (massima verosimiglianza)-momenti, già proposte da Antonino Mineo e da Angelo Mineo.

 

Prof. Francesco CORIELLI, Università Bocconi di Milano

Venerdì 5 Marzo 2010

On the smoothness of derivative portfolios

Valuing and hedging large portfolios of derivatives exposed to a handful of risk factors is a momentous issue. Practitioners seem to believe that portfolio-level values and hedge ratios be more precise than their product-by-product counterparts. I investigate statistical soundness and nuances of such a belief.

 

Prof. Paolo GIUDICI, Università degli Studi di Pavia

Venerdì 12 febbraio 2010

Statistical models for operational risk management

Any economical activity is subject to risks of different types. The globalisation of the economy has increased the vulnerability of companies and institutions to such risks. A number of recent legislations and business procedures have introduced methods and models to measure risks, especially of a financial nature. This in order to predict and, therefore, control and prevent, their emergence.
Most risk measurement methods have a pure quantitative basis. In the talk paper we argue that a correct risk measurement approach should be based not only on quantitative data but, rather, on a combination between quantitative and qualitative data. The latter can be desumed, for example, from self-assessment questionnaires submitted to the business experts of a company. In the paper we show how such information can be analysed, integrated and modelled in a statistically sound and efficient way.