« Entropie » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
L'entropie est la valeur moyenne de l'information ajoutée par la réalisation d'un événement aléatoire. | |||
Le contexte à considérer est un ensemble fini et exhaustif d'événements indépendants (s'excluant mutuellement) et de probabilités définies. | |||
<-- qui est une mesure du désordre. À quel point l’erreur observée est le fruit du hasard. | |||
--> | |||
== Français == | == Français == |
Version du 1 décembre 2022 à 14:03
Définition
L'entropie est la valeur moyenne de l'information ajoutée par la réalisation d'un événement aléatoire.
Le contexte à considérer est un ensemble fini et exhaustif d'événements indépendants (s'excluant mutuellement) et de probabilités définies.
<-- qui est une mesure du désordre. À quel point l’erreur observée est le fruit du hasard. -->
Français
entropie
Anglais
entropy
mean information content
average information content
negentropy
Contributeurs: Claire Gorjux, Claude Coulombe, wiki