bn:26718689n
Noun Concept
Categories: Entropía de la información, Geometría métrica
ES
divergencia de Kullback-Leibler  Divergencia de Kullback Leibler
ES
En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler [1]​[2]​[3]​ es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. Wikipedia
Definitions
Relations
Sources
ES
En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler [1]​[2]​[3]​ es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. Wikipedia
Indicador de la similitud entre dos funciones de distribución de probabilidad. Wikipedia Disambiguation