288
Appendice E - La funzione di verosimiglianza
Nel caso particolare che tutte le
x
i
{\displaystyle x_{i}}
provengano dalla stessa popolazione, e che quindi abbiano la stessa densità di probabilità
f
(
x
;
θ
)
{\displaystyle f(x;\theta )}
,
∂
(
ln
L
)
∂
θ
=
∂
∂
θ
∑
i
=
1
N
ln
f
(
x
i
;
θ
)
=
∑
i
=
1
N
∂
∂
θ
ln
f
(
x
i
;
θ
)
{\displaystyle {\frac {\partial (\ln {\mathcal {L}})}{\partial \theta }}\;=\;{\frac {\partial }{\partial \theta }}\sum _{i=1}^{N}\ln f(x_{i};\theta )\;=\;\sum _{i=1}^{N}{\frac {\partial }{\partial \theta }}\ln f(x_{i};\theta )}
E
{
∂
(
ln
L
)
∂
θ
}
=
∑
i
=
1
N
E
{
∂
∂
θ
ln
f
(
x
i
;
θ
)
}
=
N
⋅
E
{
∂
∂
θ
ln
f
(
x
;
θ
)
}
{\displaystyle E\left\{{\frac {\partial (\ln {\mathcal {L}})}{\partial \theta }}\right\}\;=\;\sum _{i=1}^{N}E\left\{{\frac {\partial }{\partial \theta }}\ln f(x_{i};\theta )\right\}\;=\;N\cdot E\left\{{\frac {\partial }{\partial \theta }}\ln f(x;\theta )\right\}}
e, tenuto conto della (E.1) , questo implica che
Ora
E
{
[
∂
(
ln
L
)
∂
θ
]
2
}
=
E
{
[
∑
i
=
1
N
∂
∂
θ
ln
f
(
x
i
;
θ
)
]
[
∑
k
=
1
N
∂
∂
θ
ln
f
(
x
k
;
θ
)
]
}
{\displaystyle E\left\{\left[{\frac {\partial (\ln {\mathcal {L}})}{\partial \theta }}\right]^{2}\right\}=E\left\{\left[\sum _{i=1}^{N}{\frac {\partial }{\partial \theta }}\ln f(x_{i};\theta )\right]\left[\sum _{k=1}^{N}{\frac {\partial }{\partial \theta }}\ln f(x_{k};\theta )\right]\right\}}
=
∑
i
=
1
N
E
{
[
∂
∂
θ
ln
f
(
x
i
;
θ
)
]
2
}
+
∑
i
,
k
i
≠
k
E
{
∂
∂
θ
ln
f
(
x
i
;
θ
)
⋅
∂
∂
θ
ln
f
(
x
k
;
θ
)
}
{\displaystyle =\sum _{i=1}^{N}E\left\{\left[{\frac {\partial }{\partial \theta }}\ln f(x_{i};\theta )\right]^{2}\right\}+\sum _{\begin{array}{c}i,k\\i\neq k\end{array}}E\left\{{\frac {\partial }{\partial \theta }}\ln f(x_{i};\theta )\cdot {\frac {\partial }{\partial \theta }}\ln f(x_{k};\theta )\right\}}
=
N
⋅
E
{
[
∂
∂
θ
ln
f
(
x
;
θ
)
]
2
}
+
∑
i
,
k
i
≠
k
E
{
∂
∂
θ
ln
f
(
x
i
;
θ
)
}
⋅
E
{
∂
∂
θ
ln
f
(
x
k
;
θ
)
}
{\displaystyle =N\cdot E\left\{\left[{\frac {\partial }{\partial \theta }}\ln f(x;\theta )\right]^{2}\right\}+\sum _{\begin{array}{c}i,k\\i\neq k\end{array}}E\left\{{\frac {\partial }{\partial \theta }}\ln f(x_{i};\theta )\right\}\cdot E\left\{{\frac {\partial }{\partial \theta }}\ln f(x_{k};\theta )\right\}}
(tenendo conto del fatto che le
x
i
{\displaystyle x_{i}}
sono indipendenti); l’ultimo termine si annulla in conseguenza della (E.3) , ed infine, in questo caso, il minorante della varianza della stima si può scrivere
Col metodo della massima verosimiglianza si assume, come stima del valore vero
θ
∗
{\displaystyle \theta ^{*}}
del parametro
θ
{\displaystyle \theta }
, quel valore
θ
^
{\displaystyle {\widehat {\theta }}}
che rende massima la verosimiglianza
L
{\displaystyle {\mathcal {L}}}
per i valori osservati delle variabili,
x
1
,
x
2
,
…
,
x
N
{\displaystyle x_{1},x_{2},\ldots ,x_{N}}
.
Ora, nel caso esista una stima di minima varianza
t
{\displaystyle t}
per la funzione
τ
(
θ
)
{\displaystyle \tau (\theta )}
, tenendo conto della (E.2) la condizione perché la funzione di verosimiglianza abbia un estremante diviene
∂
(
ln
L
)
∂
θ
=
t
−
τ
(
θ
)
R
(
θ
)
=
0
{\displaystyle {\frac {\partial \left(\ln {\mathcal {L}}\right)}{\partial \theta }}\;=\;{\frac {t-\tau (\theta )}{R(\theta )}}\;=\;0}