Pagina:Teoria degli errori e fondamenti di statistica.djvu/40

24 Capitolo 3 - Elementi di teoria della probabilità


3.3.3 Probabilità condizionata e probabilità composta

La probabilità che si verifichi lʼevento nel caso in cui si sa già che si è verificato lʼevento si indica con il simbolo e si chiama probabilità condizionata: si ricava per essa facilmente, usando la terminologia dellʼesempio precedente, lʼidentità


con lʼanaloga

;


e vale quindi, passando al limite, la

(3.3)

Nel caso particolare di due eventi casuali tali che il verificarsi o meno dellʼuno non alteri la probabilità di presentarsi dellʼaltro, ovverosia per cui risulti e , questi si dicono tra loro statisticamente indipendenti1, e per essi vale la seguente legge (della probabilità composta):

.

Questa si generalizza facilmente (sempre per induzione completa) ad un evento complesso costituito dal verificarsi contemporaneo di un numero qualsiasi di eventi semplici (sempre però tutti statisticamente indipendenti tra loro); per il quale vale la

(3.4)

Più in particolare, gli eventi casuali appartenenti ad un insieme di dimensione (con ) si dicono tutti statisticamente indipendenti tra loro quando la probabilità del verificarsi di uno qualsiasi di essi non è alterata dal fatto che uno o più d’uno degli altri si sia già presentato.

Come esempio si consideri il lancio indipendente di due dadi, ed i seguenti tre eventi casuali: , consistente nellʼuscita di un numero dispari sul primo dado; , consistente nellʼuscita di un numero dispari sul secondo dado; e , consistente nellʼuscita di un punteggio complessivo dispari. È facile



  1. Il concetto di indipendenza statistica tra eventi casuali fu definito per la prima volta nel 1718 da Abraham de Moivre (purtroppo noto al grosso pubblico solo per aver correttamente predetto il giorno della propria morte servendosi di una formula matematica), nel suo libro “The Doctrine of Chance”.