da cui, dividendo e moltiplicando l’integrando per L {\displaystyle {\mathcal {L}}} , risulta
ossia
Se t {\displaystyle t} è imparziale
E ( t ) = ∫ − ∞ + ∞ d x 1 ⋯ ∫ − ∞ + ∞ d x N t ( x 1 , x 2 , … , x N ) L ( x 1 , x 2 , … , x N ; θ ) = τ ( θ ) {\displaystyle E(t)\;=\;\int _{-\infty }^{+\infty }\,\mathrm {d} x_{1}\cdots \int _{-\infty }^{+\infty }\,\mathrm {d} x_{N}\,t(x_{1},x_{2},\ldots ,x_{N})\,{\mathcal {L}}(x_{1},x_{2},\ldots ,x_{N};\theta )\;=\;\tau (\theta )}
da cui, derivando ambo i membri rispetto a θ {\displaystyle \theta } ,
∫ − ∞ + ∞ d x 1 ∫ − ∞ + ∞ d x 2 ⋯ ∫ − ∞ + ∞ d x N t ∂ L ∂ θ = τ ′ ( θ ) {\displaystyle \int _{-\infty }^{+\infty }\,\mathrm {d} x_{1}\int _{-\infty }^{+\infty }\,\mathrm {d} x_{2}\cdots \int _{-\infty }^{+\infty }\,\mathrm {d} x_{N}\,t\,{\frac {\partial {\mathcal {L}}}{\partial \theta }}=\tau '(\theta )} .
Dividendo e moltiplicando poi l’integrando per la verosimiglianza L {\displaystyle {\mathcal {L}}} , risulta
e, in definitiva,