Questa pagina è stata trascritta, formattata e riletta. |
226 | Capitolo 12 - La verifica delle ipotesi (I) |
per la variabile di Kolmogorov e Smirnov non segue più la legge (12.20): non solo, ma non è più possibile ricavare teoricamente una funzione che ne descriva il comportamento in generale (in questi casi, nella pratica, la distribuzione di viene studiata usando metodi di Montecarlo).
Se si vogliono invece confrontare tra loro due campioni indipendenti per verificarne la compatibilità, bisogna ricavare dai dati il massimo scarto (in valore assoluto), , tra le due frequenze cumulative relative; e ricavare ancora dalla (12.20) la probabilità che questo possa essere avvenuto (ammessa vera l’ipotesi) per motivi puramente casuali. L’unica differenza è che la funzione (12.20) va calcolata in un’ascissa data dalla (12.21), nella quale vale
( ed sono le dimensioni dei due campioni).
Oltre al già citato vantaggio di non richiedere la creazione di più o meno arbitrarie classi di frequenza per raggrupparvi i dati, un’altra caratteristica utile del test di Kolmogorov e Smirnov è quella di essere, entro certi limiti, indipendente dalla variabile usata nella misura: se al posto di si usasse, per caratterizzare il campione, o , il massimo scarto tra frequenza cumulativa e funzione di distribuzione rimarrebbe invariato.
Un altrettanto ovvio svantaggio è collegato al fatto che per valori molto piccoli (o molto grandi) della variabile casuale usata, qualsiasi essa sia, tutte le funzioni di distribuzione e tutte le frequenze cumulative hanno lo stesso valore (0, o 1 rispettivamente). Per questo motivo il test di Kolmogorov e Smirnov è assai sensibile a differenze nella zona centrale dei dati (attorno al valore medio), mentre non è affatto efficace per discriminare tra due distribuzioni che differiscano significativamente tra loro solo nelle code; ad esempio che abbiano lo stesso valore medio e differente ampiezza.