« Méthode du goulot d'étranglement de l'information » : différence entre les versions
m (Imeziani a déplacé la page Principe du goulot d'étranglement de l'information vers Méthode du goulot d'étranglement de l'information) |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Technique de la [[théorie de l'information]] conçue pour trouver le meilleur compromis entre la précision et la complexité | Technique de la [[théorie de l'information]] conçue pour trouver le meilleur compromis entre la précision et la complexité lors du résumé d'une variable aléatoire X, étant donné une distribution de probabilité conjointe p(X,Y) entre X et une variable pertinente observée Y - et se décrit elle-même comme fournissant "un cadre étonnamment riche pour discuter d'une variété de problèmes dans le traitement du signal et l'apprentissage". | ||
== Français == | == Français == | ||
''' | '''méthode du goulot d'étranglement de l'information''' | ||
== Anglais == | == Anglais == |
Version du 7 janvier 2022 à 10:42
Définition
Technique de la théorie de l'information conçue pour trouver le meilleur compromis entre la précision et la complexité lors du résumé d'une variable aléatoire X, étant donné une distribution de probabilité conjointe p(X,Y) entre X et une variable pertinente observée Y - et se décrit elle-même comme fournissant "un cadre étonnamment riche pour discuter d'une variété de problèmes dans le traitement du signal et l'apprentissage".
Français
méthode du goulot d'étranglement de l'information
Anglais
information bottleneck method
Source : Wikipedia Machine Learning
[Tishby, Naftali et Noga Zaslavsky. « L'apprentissage en profondeur et le principe du goulot d'étranglement de l'information. » 2015 IEEE Atelier sur la théorie de l'information (ITW) . IEEE, 2015]
Contributeurs: Claire Gorjux, Imane Meziani, wiki