Matrices de transition, états, évolution d'un système et état stationnaire.
Définition
Une chaîne de Markov est une suite de variables aléatoires X0,X1,… prenant des valeurs dans un ensemble fini d’états{1,2,…,n}, avec la propriété de Markov :
P(Xn+1=j∣Xn=i)=pij(ne deˊpend pas du passeˊ)
Matrice de transition
La matrice de transitionT=(pij) contient les probabilités de passage d’un état à l’autre.
Propriétés :
pij≥0
j∑pij=1 pour chaque ligne i (matrice stochastique)
Distribution de probabilité
L’état à l’instant n est représenté par un vecteur ligne de probabilités :
πn=(πn(1),…,πn(k))avec ∑jπn(j)=1
Évolution :
πn+1=πn⋅T
πn=π0⋅Tn
Exemple
Deux états : Soleil (S) et Pluie (P).
T=(0,70,40,30,6)
Si π0=(1,0) (soleil aujourd’hui) :
π1=(0,7,0,3)π2=(0,7×0,7+0,3×0,4,…)=(0,61,0,39)
État stationnaire
L’état stationnaireπ∗ vérifie :
π∗=π∗⋅Tet∑jπ∗(j)=1
Méthode : Résoudre le système linéaire.
Exemple :π∗(S)=0,7π∗(S)+0,4π∗(P) avec π∗(S)+π∗(P)=1
0,3π∗(S)=0,4π∗(P)⟹π∗(S)=74, π∗(P)=73
Convergence
Pour une chaîne de Markov irréductible (tous les états communicants) et apériodique, la distribution converge vers l’unique état stationnaire quel que soit l’état initial :