bn:00053487n
Noun Concept
Categories: Computabilidad, Epónimos relacionados con las matemáticas, Método de Montecarlo, Procesos estocásticos, Modelos de Markov
ES
cadena de Márkov  cadena de Markov  cadenas de Markov  markoff cadena  probabilidad de transición
ES
En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior. Wikipedia
Definitions
Relations
Sources
ES
En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior. Wikipedia
Secuencia de variables aleatorias (Xn) que satisfacen la propiedad de Markov, es decir, tal que Xn+1 (el futuro) depende solamente de Xn (el presente) y no de Xk para k <= n-1 (el pasado). OmegaWiki
Spanish Open Multilingual WordNet
Wikipedia
Wikidata
Wiktionary
OmegaWiki
Wikipedia Redirections
WordNet Translations