Università Cattolica del Sacro Cuore

2009

Prof. Stefano IACUS dell'Università degli Studi di Milano

Giovedì 19 Novembre 2009

Recent results on volatility change point analysis for discretely sampled stochastic differential equations

In this seminar we review recent advances on change point analysis for the volatility component of stochastic differential equations under different discrete sampling schemes. We consider both ergodic and non ergodic cases.
Results have been obtained by means of least squares, CUSUM tests and quasi-maximum likelihood approach. We also present a Monte Carlo study to compare the three methods under different setups.
Join work with Nakahiro Yoshida.

 

Prof. Ron KENETT Chairman and CEO of the KPA Group and KPA Ltd., International Research Professor at the Center for Research in Risk Engineering, NYU-Poly, New York, USA

Mercoledì 11 Novembre 2009

On Black Swans and the Taleb Quadrants

Important consequential risks are typically unpredictable and rare. While predictable risks may be prevented, unpredictable risks test our resilience and our ability (agility) to respond. The financial meltdown of 2008 is an example of such risks with an aggregate fate of close to 1000 financial institutions (including busts such as FNMA, Bear Stearns, Northern Rock, Lehman Brothers, etc.) who lost over 1 Trillion dollars on a single error, more than was ever earned in the history of banking.
To confront this evolving risk reality, N. N. Taleb suggested mapping randomness and decision making into a quadrant with two classes of randomness and decisions. The type of decisions referred to as "simple" or "binary" lead to decisions such as "very true or very false", "matters or does not matter". By the same token, statistical tests in the control of quality may state, "A product is fit for use or the product is defective". Statements of the type "true" or "false" can then be stated with some confidence interval. A second type of decisions is more complex, emphasizing both its likelihood of occurrence and its consequences.
Two layers of randomness, very distinct qualitatively and quantitatively, are suggested by Taleb. A first layer is based on "forecastable events", implied in finite variance (and thus thin tail probability distributions) and a second based on "unforecastable events", defined by probability distributions of fat tails. In the first domain, exceptions occur without significant consequences since they are predictable and therefore preventable. The traditional random walk, converging to Gaussian-Poisson processes provides such an example. In the second domain, large consequential events are experienced which are more difficult to predict. "Fractals" and infinite variance (Pareto-stable and chaotic) models provide such examples.

 

Prof. Elvezio RONCHETTI, Università di Ginevra

Lunedì 09 marzo 2009

Robust and Accurate Inference for Generalized Linear Models

Generalized linear models have become the most commonly used class of regression models in the analysis of a large variety of data. In particular, generalized linear model can be used to model the relationship between predictors and a function of the mean of a continuous or discrete response variable.
The estimation of the parameters of the model can be carried out by maximum likelihood or quasi-likelihood methods, which are equivalent if the link is canonical. Standard asymptotic inference based on likelihood ratio, Wald and score test is then readily available for these models. However, two main problems can potentially invalidate p-values and confidence intervals based on standard classical techniques.
First of all, the models are ideal approximations to reality and deviations from the assumed distribution can have important effects on classical estimators and tests for these models (nonrobustness). Secondly, even when the model is exact, standard classical inference is based on (first order) asymptotic theory. This can lead to inaccurate p-values and confidence intervals when the sample size is moderate to small or when probabilities in the extreme tails are required.
The nonrobustness of classical estimators and tests for the parameters is a well known problem and alternative methods have been proposed in the literature. These methods are robust and can cope with deviations from the assumed distribution. However, they are based on first order asymptotic theory and their accuracy in moderate to small samples is still an open question.
In this talk we propose a test statistic which combines robustness and good accuracy for small sample sizes. We combine results from Cantoni and Ronchetti (2001, JASA)) and Robinson, Ronchetti and Young (2003, Ann. Stat.) to obtain a new test statistic for hypothesis testing and variable selection which is asymptotically chi2 distributed as the three classical tests but with a relative error of order O(1/n). Moreover, the accuracy of the new test statistic is stable in a neighbourhood of the model distribution and this leads to robust inference even in moderate to small samples.
This is joint work with S. N. Lo.

 

Prof. Attilio WEDLIN, Università di Trieste

Venerdì 27 Febbraio 2009

Dal processo di Poisson al processo pseudo-poissoniano: aspetti probabilistici e statistici

Da una decina d'anni è ripreso l'interesse dei ricercatori per i processi di P. Lévy, considerati tanto dal punto di vista teorico che da quello applicativo. Tra le applicazioni una posizione preminente spetta alla Finanza matematica: uno sviluppo moderno delle antiche discipline Matematica finanziaria e Matematica attuariale. L'attuale Seminario riguarda una modalità di presentazione dei processi stocastici di Lévy che li mette in relazione con i ben noti processi di passeggiata aleatoria e con i processi di Markov - Feller. Gli aspetti strutturali riguardano in particolare due teoremi di approssimazione dei processi di Lévy e dei processi di Markov - Feller: il primo teorema risale ai lavori di B. de Finetti del biennio 1929 - 1930 e sostanzialmente coincide con un primo teorema di rappresentazione per le distribuzioni infinitamente divisibili. Il Seminario affronta anche alcuni problemi di inferenza statistica su un particolare tipo di processi di Lévy, i processi di Poisson composto; vengono considerati sia il noto approccio inferenziale classico che quello bayesiano.

 

Prof.ssa Alessandra BRAZZALE Università di Modena e Reggio Emilia

Venerdì 20 Febbraio 2009

A Brief History of Likelihood Asymptotics

Fisher's ideas are still exerting a powerful influence on both statistical theory and practice. The likelihood function every day forms the basis of thousands of inferences from data. The basic, and commonly used, results - which we call first order asymptotics - were developed in fundamental work by Sir R. A. Fisher during the 1920s.
These developed over the past three decades into a more refined approach - the theory of higher order asymptotics - which led to some extremely accurate methods for parametric likelihood inference.
The aim of this talk is to give an account of Neo-Fisherian likelihood inference. In particular we would like to dispel the general view that higher order asymptotics are forbidding and that they may have little importance for statistical practitioners, by showing how they may be applied in realistic examples, often with very little more effort than is needed for first order procedures. We will do this by illustrating a range of examples and case studies, both from the author's own work and from the general literature, and by providing some details on their implementation. The resulting inference will be compared to that based on other methods, usually first order likelihood theory, but, where appropriate, also methods based on simulation.

 

2-4 Febbraio 2009

Giornate di studio sulla popolazione

 

Venerdì 30 gennaio 2009

Valutazione quantitativa dell'efficacia di un Sistema per la Qualità

Proprio le incertezze attuali del sistema economico e di produzione richiedono delle proposte che vadano al di là del presente e facciano leva su valori culturali importanti, fra i quali va posta l'utilizzazione generalizzata e sistematica dei metodi quantitativi, che per il sistema produttivo italiano in parte rappresenta un aspetto innovativo ed è essenziale per dare fondamento rigoroso alla certificazione.
Convegno che rientra nell'ambito della Settimana Europea della Qualità

PROGRAMMA DELLA MANIFESTAZIONE
14,30 Considerazioni generali sui metodi quantitativi e presentazione dell'incontro di studio
Prof. Angelo ZANELLA - Ing. Egidio CASCINI

15,15 Un modello di regressione strutturale per l'analisi dell'efficacia di un sistema per la Qualità
Prof. Angelo ZANELLA - Prof. Giuseppe BOARI - Dott. Gabriele CANTALUPPI - Ing. Egidio CASCINI

16,00 Un modello con informazioni "a priori" per l'analisi dell'efficacia di un sistema per la Qualità
Dott. Stefano GORLA

16,45 Il livello attuale dei sistemi per la Qualità nell'impresa italiana
Dott. Fabrizio FUJANI

17,00 Conclusioni e discussione
Incontro di studio organizzato con i Comitati Metodi Statistici - Benchmarking della Associazione Italiana Cultura Qualità

 

Prof. Domenico PICCOLO e Dott.ssa Maria IANNARIO, Università di Napoli Federico II

Mercoledì 21 Gennaio 2009

Modelli per l'analisi dei processi decisionali basati su dati ordinali

L'ambito metodologico di riferimento è costituito da una classe di modelli in grado di rappresentare il processo psicologico alla base del meccanismo di scelta tra diverse alternative. Tali modelli possono essere considerati uno strumento valido per la misura di variabili latenti, quali la soddisfazione degli utenti di un servizio, la valutazione di processi o strumenti e/o la percezione relativa ad una tematica specifica. In questi casi, le informazioni a disposizione per l'analisi del fenomeno sono costituite dalle risposte fornite alle domande (item), aspetti parziali della variabile latente d'interesse, e dalle covariate presenti in un questionario.
La funzione di tali modelli mistura tra una v.c. Binomiale traslata ed una v.c Uniforme per tradurre le risposte - che, nel caso trattato, derivano da una scala qualitativa ordinale - in parametri che siano espressioni delle variabili latenti: soddisfazione dell'intervistato (feeling) e incertezza relativa all'item oggetto di osservazione (uncertainty).
Il risultato finale consiste in una quantificazione per ogni gruppo omogeneo di unità del livello di soddisfazione/percezione consentendo confronti rispetto agli altri gruppi o, per uno stesso gruppo, rispetto agli anni precedenti.
Nell'ambito dell'intervento verranno discusse le principali proprietà inferenziali del modello statistico, la sua identificabilità, alcune proposte di generalizzazione; verranno inoltre mostrate alcune evidenze empiriche mediante un software liberamente disponibile.

  

Prof. Fabrizio RUGGERI, CNR IMATI

Lunedì 19 Gennaio 2009

Alcuni risultati nell'analisi bayesiana dell'affidabilità del software

 

Prof. Andrea CAMMELLI, Direttore del Consorzio interuniversitario AlmaLaurea

Martedì 13 gennaio 2009

L'efficacia interna ed esterna degli studi universitari nelle indagini AlmaLaurea

Dalla presentazione del Prof. Cammelli:
Dal suo avvio, nel 1994 (lo stesso anno di Monster negli USA), AlmaLaurea è cresciuta parecchio: le università che hanno aderito spontaneamente sono 52; i laureati che ogni anno si aggiungono al data base rappresentano il 70% di tutti i laureati italiani di ogni anno; i curriculum vitae disponibili sul sito per il mondo della ricerca, per il mercato del lavoro e delle professioni pubblico e privato, sono diventati 1 milione e 200mila. E non si tratta soltanto di neo-laureati ma, per la gran parte, di laureati con esperienze di lavoro di diversi anni, che aggiornano periodicamente il proprio CV. Dunque ben più di una semplice banca dati: piuttosto una vera e propria anagrafe delle professioni a disposizione delle aziende pubbliche e private in Italia ed all'estero. Con il supporto di numerosi servizi on line progettati esattamente per venire incontro alle necessità delle aziende che cercano risorse umane qualificate. Non solo; la documentazione raccolta sistematicamente sulle performance di studio dei laureati e sulla loro condizione occupazionale dopo 1, 3 e 5 anni dalla laurea, consente oggi importanti, tempestive ed affidabili verifiche sulle capacità formative delle università e sulla utilizzazione del capitale umano prodotto dalle università da parte del mercato del lavoro.