Pagina:Teoria degli errori e fondamenti di statistica.djvu/105

7.2 - Cenni sulle variabili casuali in più di due dimensioni 89


Usando la legge della probabilità totale e la definizione dell’operazione di integrazione, è poi immediato riconoscere che la probabilità dell’evento casuale consistente nell’essere ognuna delle compresa in un determinato intervallo finito è data da

.

Similmente, poi, se consideriamo il sottoinsieme delle prime M variabili (con ), la probabilità che ognuna di esse cada all’interno di intervallini infinitesimi attorno ad una M-pla di valori prefissati, indipendentemente dal valore assunto dalle altre variabili, è data da

dove gli integrali definiti sulle variabili che non interessano si intendono estesi a tutto l’asse reale; potendosi senza perdere in generalità assumere che tale sia il loro dominio di esistenza, definendo eventualmente la f come identicamente nulla al di fuori del reale intervallo di variabilità se esse fossero limitate.

La definita dalla equazione precedente prende il nome di densità di probabilità marginale delle M variabili casuali ; infine la condizione di normalizzazione si scriverà

.

Definendo, analogamente a quanto fatto nel paragrafo 7.1, la densità di probabilità delle M variabili casuali (con e ) condizionata dai valori assunti dalle restanti variabili attraverso la

(7.7)

il concetto di indipendenza statistica può facilmente essere generalizzato a sottogruppi di variabili: diremo che le M variabili sono statisticamente indipendenti dalle restanti quando la probabilità che le assumano determinati valori non dipende dai valori assunti dalle — e dunque quando la densità condizionata (7.7) è identicamente uguale alla densità marginale .