Chaîne de Markov

Définition - Que signifie chaîne de Markov?

Une chaîne de Markov est un processus mathématique qui passe d'un état à un autre dans un nombre fini d'états possibles. Il s'agit d'un ensemble de différents états et probabilités d'une variable, où sa condition ou son état futur dépend essentiellement de son état précédent immédiat.

Une chaîne de Markov est également connue sous le nom de chaîne de Markov à temps discret (DTMC) ou processus de Markov.

Definir Tech explique la chaîne de Markov

Les chaînes de Markov sont principalement utilisées pour prédire l'état futur d'une variable ou de tout objet en fonction de son état passé. Il applique des approches probabilistes pour prédire l'état suivant. Les chaînes de Markov sont présentées à l'aide de graphes dirigés, qui définissent l'état actuel et passé et la probabilité de transition d'un état à un autre.

Les chaînes de Markov ont plusieurs implémentations dans les technologies informatiques et Internet. Par exemple, la formule PageRank (r) utilisée par la recherche Google utilise une chaîne de Markov pour calculer le PageRank d'une page Web particulière. Il est également utilisé pour prédire le comportement des utilisateurs sur un site Web en fonction des préférences précédentes des utilisateurs ou des interactions avec celui-ci.