« Fonction de distance de Kullback-Leibler » : différence entre les versions
m (Remplacement de texte — « © Glossaire » par « Glossaire ») |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
En statistiques mathématiques, la divergence de Kullback-Leibler (également appelée entropie relative et divergence) est une mesure de dissimilarité entre deux distributions de probabilités. | |||
Bien qu'il s'agisse d'une distance, ce n'est pas une métrique, le type de distance le plus familier : elle n'est pas symétrique dans les deux distributions (contrairement à la variation de l'information) et ne satisfait pas à l'inégalité triangulaire. | |||
En revanche, en termes de géométrie de l'information, il s'agit d'un type de divergence, d'une généralisation de la distance au carré et, pour certaines classes de distributions (notamment une famille exponentielle), elle satisfait à un théorème de Pythagore généralisé. | |||
== Français == | == Français == | ||
''' fonction de distance de Kullback-Leibler''' | ''' fonction de distance de Kullback-Leibler''' | ||
Ligne 9 : | Ligne 15 : | ||
[http://isi.cbs.nl/glossary/term1807.htm Source : ISI ] | [http://isi.cbs.nl/glossary/term1807.htm Source : ISI ] | ||
[https://fr.wikipedia.org/wiki/Divergence_de_Kullback-Leibler Source : Wikipedia ] | |||
[[:Catégorie:Statistiques | Glossaire de la statistique DataFranca]]<br> | [[:Catégorie:Statistiques | Glossaire de la statistique DataFranca]]<br> | ||
[[Catégorie:Statistiques]] | [[Catégorie:Statistiques]] | ||
[[Catégorie:ISI]] | [[Catégorie:ISI]] |
Version du 14 mars 2023 à 09:38
Définition
En statistiques mathématiques, la divergence de Kullback-Leibler (également appelée entropie relative et divergence) est une mesure de dissimilarité entre deux distributions de probabilités.
Bien qu'il s'agisse d'une distance, ce n'est pas une métrique, le type de distance le plus familier : elle n'est pas symétrique dans les deux distributions (contrairement à la variation de l'information) et ne satisfait pas à l'inégalité triangulaire.
En revanche, en termes de géométrie de l'information, il s'agit d'un type de divergence, d'une généralisation de la distance au carré et, pour certaines classes de distributions (notamment une famille exponentielle), elle satisfait à un théorème de Pythagore généralisé.
Français
fonction de distance de Kullback-Leibler
Anglais
Kullback-Leibler distance function
Contributeurs: Maya Pentsch, wiki