bn:00031060n
Noun Concept
Categories: Claude Shannon, Échelle logarithmique, Théorie de l'information
FR
entropie  entropie de Shannon  des informations sélectives  information de fisher  matrice d'information de fisher
FR
En théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Wikipedia
French:
théorie de l'information
Definitions
Relations
Sources
FR
En théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Wikipedia
Exprimée sous une autre forme par Ludwig Boltzmann en thermodynamique. Wikipedia Disambiguation
Utilisée comme mesure de la biodiversité à travers l'indice de Shannon. Wikipedia Disambiguation
Fonction mathématique mesurant la quantité d'information d'une source Wikidata
WordNet du Français
French (WOLF) Open Multilingual WordNet
Wikipedia
Wikidata
Wikipedia Redirections
Wikidata Alias
WordNet Translations