Teoria degli errori e fondamenti di statistica/11.4.1

11.4.1 Interpolazione lineare per due variabili

../11.4 ../11.4.2 IncludiIntestazione 1 settembre 2022 100% Da definire

11.4 11.4.2
[p. 179 modifica]

11.4.1 Interpolazione lineare per due variabili

Cominciamo col supporre che le variabili oggetto della misura siano due sole, e che la legge che le mette in relazione reciproca sia di tipo lineare:

.

Supponiamo poi che siano state effettuate misure del valore della x e di quello corrispondente assunto dalla y in diverse condizioni, così che si disponga in definitiva di N coppie di valori tra loro corrispondenti ; abbiamo già detto che, una volta riportati sul piano cartesiano punti con queste coordinate, essi si dovranno disporre approssimativamente lungo una linea retta.

Ora, si può dimostrare che vale, sul piano, qualcosa di analogo a quanto abbiamo già asserito riguardo alla media aritmetica di misure ripetute di una stessa grandezza fisica (cioè, geometricamente, su di una retta, visto che quelle determinazioni potevano essere univocamente rappresentate da punti su di una retta orientata); infatti

  • Sulla base delle misure effettuate, non si può escludere con certezza che alcuna delle infinite rette del piano corrisponda a quella vera su cui le nostre osservazioni si disporrebbero in assenza di errori; tuttavia esse non appaiono tutte quante ugualmente verosimili, e la verosimiglianza sarà in qualche modo in relazione con la distanza complessiva tra i nostri punti sperimentali e la retta stessa.
  • Nel caso particolare che siano verificate le seguenti ipotesi:
    1. una sola delle variabili coinvolte (ad esempio la y) è affetta da errori;
    2. gli errori quadratici medi delle misure dei diversi valori di y sono tutti uguali (o comunque non molto differenti);
    3. questi errori seguono la legge normale di distribuzione;
    4. le N determinazioni effettuate sono tra loro statisticamente indipendenti;
dimostreremo ora che per “distanza complessiva” si deve intendere la somma dei quadrati delle lunghezze dei segmenti ai retta parallela all’asse y compresi tra i punti misurati e la retta esaminata.

Infatti, detto l’errore quadratico medio delle , la funzione di verosimiglianza è

.

[p. 180 modifica]Per scrivere questa espressione si è fatto uso di tutte le ipotesi postulate: in particolare, il fatto che le siano misurate senza errore ci permette di affermare che il valore vero assunto in corrispondenza dalla è ; visto che è la legge fisica che lega le due variabili tra loro.

Questa funzione di verosimiglianza rappresenta allora la densità di probabilità collegata all’evento casuale consistente nell’essere la legge fisica che lega ad rappresentata dall’equazione , qualora si siano ottenuti gli valori misurati , e sotto le quattro ipotesi su elencate.

I valori più verosimili del parametro saranno quelli che rendono massima : vedremo ora che la soluzione è unica; e, ancora, il teorema di Cramér-Rao ci permetterebbe di dimostrare che la stima, appunto, più verosimile (la retta che corrisponde al massimo della probabilità) è anche la stima di minima varianza (ovvero la più precisa possibile). Prendendo il logaritmo naturale di entrambi i membri, risulta

.

I valori più verosimili dei parametri e sono quelli per cui è massima , ovvero è minima : il problema dell’interpolazione lineare dunque si riduce (se sono soddisfatte le ipotesi citate) a quello di trovare tra le infinite rette del piano quella che rende minima la funzione

(essendo tutti gli altri termini indipendenti dalle due incognite e ).

L’interpretazione geometrica è evidente: la retta soluzione del nostro problema è (come già preannunciato) quella che rende minima la somma dei quadrati delle distanze, misurate però parallelamente all’asse , dall’insieme dei punti misurati; queste “distanze” sono anche comunemente chiamate “residui”. Per trovare il valore dei coefficienti dell’equazione di tale retta, calcoliamo ora le derivate prime della funzione :


Imponendo che le due derivate prime siano contemporaneamente nulle, [p. 181 modifica]dovranno essere verificate le

(11.9)

e questo sistema di due equazioni in due incognite ammette, come si può verificare, sempre una ed una sola soluzione, purché vi siano almeno due punti sperimentali non coincidenti; esaminando poi le derivate seconde si troverebbe che essa corrisponde in effetti ad un minimo. La soluzione è

(11.10)

in cui si è posto per brevità

(le formule (11.10) sono note sotto il nome di formule dei minimi quadrati).

Per quanto attiene al calcolo degli errori commessi nella valutazione di e in base ai dati, osserviamo che entrambi si ricavano da relazioni lineari in ognuna delle variabili affette da errore che, nelle nostre ipotesi, sono le sole : possiamo dunque adoperare la formula della propagazione degli errori (10.2), che è in questo caso esatta; oppure la più semplice (5.5). Possiamo esprimere e in funzione delle come

e

una volta posto

e, se indichiamo con la varianza comune a tutte le , si ottiene, per l’errore di : [p. 182 modifica]

e, similmente, per :

.
[p. 183 modifica]In definitiva, e hanno errori quadratici medi dati dalle
(11.11)

ed il fatto poi che e siano funzioni lineari di variabili che seguono la legge di Gauss ci permette ancora di affermare che anch’esse sono distribuite secondo la legge normale; e di attribuire così ai loro errori il consueto significato statistico.