Entropie
Définition
Valeur moyenne de la mesure de l'information apportée par la réalisation d'un événement quelconque d'un ensemble fini et exhaustif d'événements s'excluant mutuellement et de probabilités définies.
Français
entropie
Anglais
entropy
mean information content
average information content
negentropy
Contributeurs: Claire Gorjux, Claude Coulombe, wiki