bn:00053487n
Noun Concept
Categories: Processos estocásticos, Estatística, Teoria das probabilidades
PT
cadeias de Markov  cadeia de Markov  processo de Markov  cadeia de markoff  probabilidade de transição
PT
Em matemática, uma cadeia de Markov é um caso particular de processo estocástico com estados discretos com a propriedade de que a distribuição de probabilidade do próximo estado depende apenas do estado atual e não na sequência de eventos que precederam, uma propriedade chamada de Markoviana, chamada assim em homenagem ao matemático Andrei Andreyevich Markov. Wikipedia
Definitions
Relations
Sources
PT
Em matemática, uma cadeia de Markov é um caso particular de processo estocástico com estados discretos com a propriedade de que a distribuição de probabilidade do próximo estado depende apenas do estado atual e não na sequência de eventos que precederam, uma propriedade chamada de Markoviana, chamada assim em homenagem ao matemático Andrei Andreyevich Markov. Wikipedia
Conceito matemático Wikidata