bn:00053487n
Noun Concept
Categories: Chaîne de Markov, Physique statistique
FR
chaîne de Markov  chaînes de Markov  chaine de Markov  Chaines de Markov  Chaîne de Markov à espace d'états discret
FR
En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Wikipedia
Definitions
Relations
Sources
FR
En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Wikipedia
Un processus stochastique possédant la propriété markovienne. Wikipedia Disambiguation
Suite de variables aléatoires (Xn), vérifiant la propriété markovienne, c'est-à-dire telle que Xn+1 (le futur) ne dépend que de Xn (le présent) et pas de Xk pour k <= n-1 (le passé). OmegaWiki