« Entropie de Shannon » : différence entre les versions
m (Remplacement de texte — « <!-- Wikipedia --> » par « ») |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
L'entropie de Shannon, due à Claude Shannon, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (collection d'octets). | L'entropie de Shannon, due à Claude Shannon, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (collection d'octets). | ||
Ligne 10 : | Ligne 5 : | ||
==Français== | ==Français== | ||
'''entropie de Shannon''' nom fém. | '''entropie de Shannon''' <small> loc. nom. fém. </small> | ||
==Anglais== | ==Anglais== | ||
Ligne 17 : | Ligne 12 : | ||
<small> | <small> | ||
[https://fr.wikipedia.org/wiki/Entropie_de_Shannon Source : Wikipedia IA] | |||
[ | |||
[[Catégorie:Apprentissage automatique]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Catégorie:Réseau de neurones artificiels]] |
Version du 6 mai 2020 à 19:14
Définition
L'entropie de Shannon, due à Claude Shannon, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (collection d'octets).
Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande. Ainsi, si une source envoie toujours le même symbole, par exemple la lettre «a», alors son entropie est nulle, c'est-à-dire minimale. Par contre, si la source envoie un «a» la moitié du temps et un «b» l'autre moitié, le récepteur est incertain de la prochaine lettre à recevoir.
Français
entropie de Shannon loc. nom. fém.
Anglais
Shannon entropy
Contributeurs: Jacques Barolet, wiki