<dc:title> Teoria degli errori e fondamenti di statistica </dc:title><dc:creator opt:role="aut">Maurizio Loreti</dc:creator><dc:date>2006</dc:date><dc:subject></dc:subject><dc:rights>CC BY-SA 3.0</dc:rights><dc:rights>GFDL</dc:rights><dc:relation>Indice:Teoria_degli_errori_e_fondamenti_di_statistica.djvu</dc:relation><dc:identifier>//it.wikisource.org/w/index.php?title=Teoria_degli_errori_e_fondamenti_di_statistica/11.2.1&oldid=-</dc:identifier><dc:revisiondatestamp>20220831171813</dc:revisiondatestamp>//it.wikisource.org/w/index.php?title=Teoria_degli_errori_e_fondamenti_di_statistica/11.2.1&oldid=-20220831171813
Teoria degli errori e fondamenti di statistica - 11.2.1 Un esempio di stima sufficiente Maurizio LoretiTeoria degli errori e fondamenti di statistica.djvu
Supponiamo di avere un campione di determinazioni indipendenti di una variabile che segua la distribuzione di Poisson; le probabilità dei differenti valori sono date dalla (8.14), e dipendono da un unico parametro: il valore medio della distribuzione, . La funzione di verosimiglianza è la
(11.6)
[p. 174modifica]Nei passaggi, per due volte si è moltiplicato e diviso per una stessa quantità non nulla: prima per e poi per .
La stima di massima verosimiglianza si trova annullando la derivata della (11.6); che, a meno di un fattore costante, è della forma
per cui
e quindi la stima cercata è
Il primo termine dell’espressione finale (11.6) per la funzione di verosimiglianza è la probabilità che la variabile casuale
abbia un determinato valore: infatti, come già sappiamo dal paragrafo (8.5), segue la distribuzione di Poisson con valore medio . Notiamo anche che, avendo un valore costante noto a priori, coincide con : il secondo termine deve quindi essere la probabilità che i dati osservati valgano condizionata dal fatto che la loro somma vale ; ma, non dipendendo questo termine da , tale probabilità è la stessa qualunque sia il parametro.
Qualunque sia , una volta noto il suo valore le sono distribuite allo stesso modo: riassume insomma tutta l’informazione contenuta nei dati, ed è quindi per definizione una stima sufficiente del parametro. In effetti, se la probabilità dei valori
una volta nota non dipende dal parametro, questo implica che qualunque funzione dei dati ha probabilità (condizionata) che gode della stessa proprietà. Citiamo senza dimostrarlo, in proposito, il seguente
Teorema:è una stima sufficiente di se e solo se la funzione di verosimiglianza è fattorizzabile nella forma