Entropie


Révision datée du 11 février 2024 à 10:27 par Pitpitt (discussion | contributions) (Remplacement de texte : « [http://isi.cbs.nl/glossary/ » par « [https://www.isi-web.org/glossary?language=2 Source : ISI Glossaire ] [#  »)

Définition

L'entropie est la valeur moyenne de l'information ajoutée par la réalisation d'un événement aléatoire.

Le contexte à considérer est celui d'un ensemble fini et exhaustif d'événements aléatoires indépendants (i.e. s'excluant mutuellement) et de probabilités bien définies.

Compléments

L'entropie peut être assimilée à une mesure du désordre.


Français

entropie

Anglais

entropy

mean information content

average information content

negentropy

Sources

Source : ISI Glossaire

Source : ISI Glossaire

[# term1108.htm Source : ISI ]

Source : TERMIUM Plus