Teoria degli errori e fondamenti di statistica/11.3

11.3 Media pesata

../11.2.1 ../11.4 IncludiIntestazione 1 settembre 2022 100% Da definire

11.2.1 11.4

[p. 175 modifica]

11.3 Media pesata

Quando si abbiano a disposizione più determinazioni ripetute di una stessa grandezza fisica, sappiamo che da esse si può ricavare un valore unico da usare come risultato finale attraverso il calcolo della media aritmetica; questa (come già anticipato senza dimostrazione nel paragrafo 4.4) è la funzione dei dati con la distribuzione più stretta attorno al valore vero, e ci fornisce quindi la stima più verosimile di esso. Però questo presuppone che i dati, essendo considerati tutti allo stesso modo nella formula, posseggano la stessa precisione sperimentale: ad esempio che siano stati valutati dallo stesso sperimentatore, con lo stesso strumento e nelle stesse condizioni; in altre parole, che le misure provengano da un’unica popolazione.

Può capitare invece di disporre di più determinazioni della stessa grandezza fisica fatte da sperimentatori diversi, od in condizioni sperimentali differenti: e di voler ugualmente estrarre da queste valutazioni, affette da differenti errori, un valore unico da usare come risultato complessivo.

Facendo le ipotesi che tutte le misure siano tra loro statisticamente indipendenti, ed inoltre affette da errori casuali distribuiti secondo la legge di Gauss, la densità di probabilità corrispondente all’evento casuale costituito dall’osservazione degli valori si può scrivere (applicando il teorema della probabilità composta)

dove è il valore vero (ignoto) di , e le sono gli errori quadratici medi (supposti noti) delle diverse determinazioni.

La funzione di verosimiglianza è la

(cioè la densità di probabilità di cui sopra, nella quale il valore vero è sostituito dal parametro variabile ); e ricordiamo che essa rappresenta la densità di probabilità associata all’evento casuale consistente nell’essere il numero il valore vero della grandezza misurata, qualora di essa si siano ottenute le stime indipendenti , di errori rispettivi , supposte seguire la legge normale.

La stima più verosimile è quella che, rendendo massima , individua quel numero che, sulla base delle osservazioni disponibili, possiede la massima probabilità di coincidere con il valore vero: vedremo tra poco che la [p. 176 modifica]soluzione è unica. Prendendo il logaritmo naturale di ,

e ricordando, come prima detto, che il logaritmo naturale è una funzione monotona strettamente crescente dell’argomento, si vede che il massimo di corrisponde al minimo di ; la determinazione del valore più verosimile di x (nel caso di errori normali) si riduce allora al problema analitico di trovare il minimo della funzione

(infatti nessuno degli altri termini dipende dall’incognita x). Risolviamo il problema facendo uso del calcolo infinitesimale:

;


.

Se per brevità poniamo

la condizione per l’estremante di si scrive

e la derivata prima di f si annulla quando la variabile x assume il valore

. (11.7)

Il fatto che la derivata seconda sia positiva assicura poi che si tratta effettivamente di un punto di minimo; si vede come sia una media pesata dei valori misurati , ottenuta assegnando ad ognuno di essi peso relativo inversamente proporzionale al quadrato dell’errore rispettivo. [p. 177 modifica]

Per determinare poi l’errore del risultato , è in questo caso possibile usare in tutta generalità la formula della propagazione degli errori: infatti è una particolare funzione delle variabili , di ognuna delle quali conosciamo per ipotesi l’errore quadratico medio ; ed inoltre dipende linearmente da ognuna di queste variabili, e questo fa sì che la formula di propagazione (10.2) sia in questo caso esatta e non approssimata (dando insomma risultati sempre validi, indipendentemente dall’entità degli errori commessi).

Applichiamo direttamente l’equazione (5.5) per la varianza delle combinazioni lineari di variabili tra loro indipendenti, invece della più complicata (10.2): è calcolata come combinazione lineare delle con coefficienti , e quindi avremo

cioè

. (11.8)

Per la osservata linearità della formula, la media pesata (nelle ipotesi ammesse) è una variabile casuale normale come le singole ; ed il suo errore quadratico medio ha dunque l’analoga interpretazione di semiampiezza dell’intervallo con centro in avente probabilità pari al 68% di contenere il valore vero .

Per quanto concerne le proprietà della media pesata come stima del valore vero, la derivata del logaritmo della funzione di verosimiglianza rispetto al parametro incognito (che è ) vale

ed è soddisfatta la condizione (11.4) sotto la quale il teorema di Cramér-Rao (che esamineremo in dettaglio nell’appendice E) ci permette di affermare che la stima di massima verosimiglianza è anche quella di varianza minima: ovvero, tra tutte le possibili funzioni dei dati che si potrebbero definire per stimare il valore vero dal campione, quella mediamente più vicina ad esso.

È da notare come, prima di comporre tra loro determinazioni indipendenti della stessa grandezza, sia opportuno controllare che queste siano (entro [p. 178 modifica]i rispettivi errori) tra loro compatibili; analogamente a quanto si fa per le misure ripetute, è preferibile non considerare dati che non vadano d’accordo con gli altri entro i limiti della pura casualità.

Il caso di misure ripetute effettuate nelle medesime condizioni sperimentali non è altro che il caso particolare in cui tutti gli errori quadratici medi sono uguali tra di loro: la media pesata (11.7) si riduce allora alla media aritmetica (4.1) (ed il suo errore (11.8) alla già nota espressione (5.6)).

Questo prova l’asserto del paragrafo 4.4 (giustificazione della media); abbiamo finalmente dimostrato che la media aritmetica è il valore più verosimile della grandezza misurata: cioè quello che ha la massima probabilità di coincidere con il valore vero sulla base del nostro campione di misure, e che rappresenta la stima di minima varianza.