Chaîne de Markov
Définition – Que signifie chaîne de Markov? Une chaîne de Markov est un processus mathématique qui passe d’un état à un autre dans un nombre fini d’états possibles. Il s’agit d’un ensemble de différents états et probabilités d’une variable, où sa condition ou son état futur dépend essentiellement de son état précédent immédiat. Une chaîne … Lire la suite