« Méthode du goulot d'étranglement de l'information » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(6 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
== Définition ==
XXXXXXXXX
Technique de la [[théorie de l'information]] conçue pour trouver le meilleur compromis entre la précision et la complexité lors du résumé d'une variable aléatoire X, étant donné une distribution de probabilité conjointe p(X,Y) entre X et une variable pertinente observée Y - et se décrit elle-même comme fournissant "un cadre étonnamment riche pour discuter d'une variété de problèmes dans le traitement du signal et l'apprentissage".


== Français ==
== Français ==
''' XXXXXXXXX '''
'''méthode du goulot d'étranglement de l'information'''


== Anglais ==
== Anglais ==
''' Information bottleneck method'''
'''information bottleneck method'''
The information bottleneck method is a technique in information theory introduced by Naftali Tishby, Fernando C. Pereira, and William Bialek.[1] It is designed for finding the best tradeoff between accuracy and complexity (compression) when summarizing (e.g. clustering) a random variable X, given a joint probability distribution p(X,Y) between X and an observed relevant variable Y - and described as providing "a surprisingly rich framework for discussing a variety of problems in signal processing and learning".[1]


<small>
==Sources==


[https://en.wikipedia.org/wiki/Information_bottleneck_method      Source : Wikipedia  Machine Learning ]
[https://en.wikipedia.org/wiki/Information_bottleneck_method      Source : Wikipedia  Machine Learning ]


[Tishby, Naftali et Noga Zaslavsky. « L'apprentissage en profondeur et le principe du goulot d'étranglement de l'information. » 2015 IEEE Atelier sur la théorie de l'information (ITW) . IEEE, 2015]


[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Wikipedia-IA‎]]

Dernière version du 28 janvier 2024 à 11:16

Définition

Technique de la théorie de l'information conçue pour trouver le meilleur compromis entre la précision et la complexité lors du résumé d'une variable aléatoire X, étant donné une distribution de probabilité conjointe p(X,Y) entre X et une variable pertinente observée Y - et se décrit elle-même comme fournissant "un cadre étonnamment riche pour discuter d'une variété de problèmes dans le traitement du signal et l'apprentissage".

Français

méthode du goulot d'étranglement de l'information

Anglais

information bottleneck method

Sources

Source : Wikipedia Machine Learning

[Tishby, Naftali et Noga Zaslavsky. « L'apprentissage en profondeur et le principe du goulot d'étranglement de l'information. » 2015 IEEE Atelier sur la théorie de l'information (ITW) . IEEE, 2015]



Contributeurs: Claire Gorjux, Imane Meziani, wiki