Somme de deux variables aléatoires
Soient X et Y deux variables aléatoires définies sur le même univers.
E(X+Y)=E(X)+E(Y)(toujours vrai)
V(X+Y)=V(X)+V(Y)si X et Y sont indeˊpendantes
Indépendance de variables aléatoires
X et Y sont indépendantes si pour tous xi, yj :
P(X=xi et Y=yj)=P(X=xi)×P(Y=yj)
Propriétés des sommes indépendantes
Pour X1,…,Xn indépendantes :
E(∑i=1nXi)=∑i=1nE(Xi)
V(∑i=1nXi)=∑i=1nV(Xi)
σ(∑i=1nXi)=∑i=1nV(Xi)
Cas identiquement distribuées
Si X1,…,Xn sont i.i.d. (indépendantes et identiquement distribuées) avec E(Xi)=μ et V(Xi)=σ2 :
Sn=X1+⋯+Xn⟹E(Sn)=nμ,V(Sn)=nσ2
Xˉn=nSn⟹E(Xˉn)=μ,V(Xˉn)=nσ2,σ(Xˉn)=nσ
La dispersion de la moyenne diminue en n1 : doubler n divise l’écart-type par 2.
Application — Somme de variables de Bernoulli
Si Xi∼B(p) indépendantes, alors Sn=∑Xi∼B(n,p).
E(Sn)=npV(Sn)=np(1−p)
Exemple
Un dé est lancé 4 fois. Xi = résultat du i-ème lancer.
E(Xi)=3,5, V(Xi)=1235.
S4=X1+X2+X3+X4 = somme des 4 résultats.
E(S4)=4×3,5=14V(S4)=4×1235=335≈11,67