« Entropie » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 2 : Ligne 2 :
L'entropie est la valeur moyenne de l'information ajoutée par la réalisation d'un événement aléatoire.
L'entropie est la valeur moyenne de l'information ajoutée par la réalisation d'un événement aléatoire.


Le contexte à considérer est un ensemble fini et exhaustif d'événements indépendants (s'excluant mutuellement) et de probabilités définies.
Le contexte à considérer est celui d'un ensemble fini et exhaustif d'événements aléatoires indépendants (i.e. s'excluant mutuellement) et de probabilités bien définies.


== Compléments ==
== Compléments ==

Version du 1 décembre 2022 à 14:07

Définition

L'entropie est la valeur moyenne de l'information ajoutée par la réalisation d'un événement aléatoire.

Le contexte à considérer est celui d'un ensemble fini et exhaustif d'événements aléatoires indépendants (i.e. s'excluant mutuellement) et de probabilités bien définies.

Compléments

L'entropie peut être assimilée à une mesure du désordre.


Français

entropie

Anglais

entropy

mean information content

average information content

negentropy

Source : ISI

Source : TERMIUM Plus

© Glossaire de la statistique DataFranca