« Entropie » : différence entre les versions
m (Remplacement de texte : « '''<span style="font-size:18px">GLOSSAIRE DE LA STATISTIQUE</span>'''↵ » par « Catégorie:Statistiques ») |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
Ligne 22 : | Ligne 22 : | ||
'''negentropy''' | '''negentropy''' | ||
==Sources== | |||
[http://isi.cbs.nl/glossary/term1108.htm Source : ISI ] | [http://isi.cbs.nl/glossary/term1108.htm Source : ISI ] |
Version du 27 janvier 2024 à 22:09
Définition
L'entropie est la valeur moyenne de l'information ajoutée par la réalisation d'un événement aléatoire.
Le contexte à considérer est celui d'un ensemble fini et exhaustif d'événements aléatoires indépendants (i.e. s'excluant mutuellement) et de probabilités bien définies.
Compléments
L'entropie peut être assimilée à une mesure du désordre.
Français
entropie
Anglais
entropy
mean information content
average information content
negentropy
Sources
Contributeurs: Claire Gorjux, Claude Coulombe, wiki