bn:16382363n
Noun Concept
Categories: Processus de Markov
FR
processus de Markov à temps continu  chaîne de Markov à temps continu  chaîne de markov en temps continu  chaîne markov à temps continu  processus markov à temps continu
FR
En théorie des probabilités, un processus de Markov à temps continu, ou chaîne de Markov à temps continu est une variante à temps continu du processus de Markov. Wikipedia
Definitions
Relations
Sources