« Entropie » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Valeur moyenne de la mesure de l'information apportée par la réalisation d'un événement quelconque d'un ensemble fini et exhaustif d'événements s'excluant mutuellement et de probabilités définies.
L'entropie est la valeur moyenne de l'information ajoutée par la réalisation d'un événement aléatoire.
 
Le contexte à considérer est un ensemble fini et exhaustif d'événements indépendants (s'excluant mutuellement) et de probabilités définies.
 
<-- qui est une mesure du désordre. À quel point l’erreur observée est le fruit du hasard.
-->


== Français ==
== Français ==

Version du 1 décembre 2022 à 14:03

Définition

L'entropie est la valeur moyenne de l'information ajoutée par la réalisation d'un événement aléatoire.

Le contexte à considérer est un ensemble fini et exhaustif d'événements indépendants (s'excluant mutuellement) et de probabilités définies.

<-- qui est une mesure du désordre. À quel point l’erreur observée est le fruit du hasard. -->

Français

entropie

Anglais

entropy

mean information content

average information content

negentropy

Source : ISI

Source : TERMIUM Plus

© Glossaire de la statistique DataFranca