Quote:
Originariamente inviato da thewebsurfer
salve ragazzi, qualcuno mi sa dare una spiegazione al fatto che in ambito "Probabilità e statistica" la varianza è del tipo
σ^2=1/n * sommatoria da 1 a n di (x_i - E(X))^2
(E(X) valore medio, x_i insieme di n dati)
quindi si divide per n, mentre in altri ambiti (analisi dei dati) si divide per 1/(n-1)?
|
La prima quantità è la varianza "vera e propria", usata in calcolo delle probabilità, in cui E(X) è il valore atteso (media teorica).
La seconda, si chiama "varianza campionaria corretta", e viene adoperata in statistica, con E(X) pari non al valore atteso (che, in generale, non è noto) ma alla media campionaria, ossia alla media aritmetica dei valori raccolti.
Il motivo per questo nome, è che il valore atteso della varianza campionaria corretta è proprio la varianza: cosicchè la prima è uno
stimatore non distorto della seconda.