Teoria degli errori e fondamenti di statistica/12.7

12.7 Il metodo di Kolmogorov e Smirnov

../12.6.1 ../13 IncludiIntestazione 2 settembre 2022 100% Da definire

12.6.1 13
[p. 225 modifica]

12.7 Il metodo di Kolmogorov e Smirnov

Il test di Kolmogorov e Smirnov è un metodo di analisi statistica che permette di confrontare tra loro un campione di dati ed una distribuzione teorica (oppure due campioni di dati) allo scopo di verificare l’ipotesi statistica che la popolazione da cui i dati provengono sia quella in esame (oppure l’ipotesi che entrambi i campioni provengano dalla stessa popolazione).

Una caratteristica interessante di questo metodo è che esso non richiede la preventiva, e più o meno arbitraria, suddivisione dei dati in classi di frequenza; definendo queste ultime in modo diverso si ottengono ovviamente, dal metodo del , differenti risultati per gli stessi campioni.

Il test di Kolmogorov e Smirnov si basa infatti sulla frequenza cumulativa relativa dei dati, introdotta nel paragrafo 4.1 a pagina 33; e sull’analogo concetto di funzione di distribuzione di una variabile continua definito nel paragrafo 6.1 a pagina 68. Per la compatibilità tra un campione ed una ipotetica legge che si ritiene possa descriverne la popolazione di provenienza, e collegata ad una funzione di distribuzione , bisogna confrontare la frequenza cumulativa relativa del campione con per ricavare il valore assoluto del massimo scarto tra esse,

.

Si può dimostrare che, se l’ipotesi da verificare fosse vera, la probabilità di ottenere casualmente un valore di non inferiore ad una prefissata quantità (positiva) sarebbe data da

ove è la serie

(12.20)

e vale

. (12.21)

La legge ora enunciata è approssimata, ma il test di Kolmogorov e Smirnov può essere usato già per dimensioni del campione uguali a 5. Attenzione però che, se qualche parametro da cui la distribuzione teorica dipende è stato stimato sulla base dei dati, l’integrale della densità di probabilità [p. 226 modifica]per la variabile di Kolmogorov e Smirnov non segue più la legge (12.20): non solo, ma non è più possibile ricavare teoricamente una funzione che ne descriva il comportamento in generale (in questi casi, nella pratica, la distribuzione di viene studiata usando metodi di Montecarlo).

Se si vogliono invece confrontare tra loro due campioni indipendenti per verificarne la compatibilità, bisogna ricavare dai dati il massimo scarto (in valore assoluto), , tra le due frequenze cumulative relative; e ricavare ancora dalla (12.20) la probabilità che questo possa essere avvenuto (ammessa vera l’ipotesi) per motivi puramente casuali. L’unica differenza è che la funzione (12.20) va calcolata in un’ascissa data dalla (12.21), nella quale vale

( ed sono le dimensioni dei due campioni).

Oltre al già citato vantaggio di non richiedere la creazione di più o meno arbitrarie classi di frequenza per raggrupparvi i dati, un’altra caratteristica utile del test di Kolmogorov e Smirnov è quella di essere, entro certi limiti, indipendente dalla variabile usata nella misura: se al posto di si usasse, per caratterizzare il campione, o , il massimo scarto tra frequenza cumulativa e funzione di distribuzione rimarrebbe invariato.

Un altrettanto ovvio svantaggio è collegato al fatto che per valori molto piccoli (o molto grandi) della variabile casuale usata, qualsiasi essa sia, tutte le funzioni di distribuzione e tutte le frequenze cumulative hanno lo stesso valore (0, o 1 rispettivamente). Per questo motivo il test di Kolmogorov e Smirnov è assai sensibile a differenze nella zona centrale dei dati (attorno al valore medio), mentre non è affatto efficace per discriminare tra due distribuzioni che differiscano significativamente tra loro solo nelle code; ad esempio che abbiano lo stesso valore medio e differente ampiezza.