Questa pagina è stata trascritta, formattata e riletta. |
Capitolo 11
Stime di parametri
In questo capitolo prenderemo in considerazione due speciali tecniche di elaborazione dei dati che sono utilizzate per stimare il valore di parametri ignoti dai quali le distribuzioni teoriche dipendono: la media pesata di determinazioni sperimentali aventi diversa precisione; e la valutazione dei parametri da cui dipende l’equazione di una curva che deve descrivere una relazione tra più variabili interconnesse e misurate indipendentemente (curva interpolante i dati sperimentali).
Il metodo usato per la soluzione è, in entrambi i casi, quello della massima verosimiglianza (introdotto originariamente da Fisher1 nel 1921); la prima parte del capitolo riguarderà appunto il problema della stima del valore dei parametri in generale, e questo metodo in particolare.
11.1 Stime e loro caratteristiche
Supponiamo che la densità di probabilità di una variabile casuale continua x (che possa assumere tutti i valori dell’asse reale) dipenda da un parametro , il cui valore vero ci sia ignoto; se si hanno a disposizione N determinazioni sperimentali indipendenti della grandezza x, vogliamo
- ↑ Sir Ronald Fisher nacque a Londra nel 1890 e morì ad Adelaide (in Australia) nel 1962. È considerato, per l’importanza dei suoi lavori, uno dei fondatori della moderna statistica: oltre al concetto di verosimiglianza (likelihood in inglese), introdusse per primo l’analisi delle varianze e scoperse la forma analitica delle funzioni di distribuzione di molte importanti variabili casuali; dette poi importanti contributi ai metodi per i piccoli campioni ed a quelli per la verifica delle ipotesi.
167