bn:00975913n
Noun Concept
Categories: Théorie de l'information
FR
entropie croisée
FR
En théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers Ω {\displaystyle \Omega }, si la distribution des événements est basée sur une loi de probabilité q {\displaystyle q}, relativement à une distribution de référence p {\displaystyle p}. Wikipedia
Definitions
Relations
Sources
FR
En théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers Ω {\displaystyle \Omega }, si la distribution des événements est basée sur une loi de probabilité q {\displaystyle q}, relativement à une distribution de référence p {\displaystyle p}. Wikipedia
STUDIED BY
Wikipedia
Wikidata
Wikipedia Translations