« Algorithme EM » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵↵==Sources== » par «  ==Sources== »)
 
(36 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
==Domaine==
[[Category:Claude2]]
Claude<br />
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Vocabulaire2]]
[[Category:Google2]]
[[Category:Apprentissage profond2]]
[[Category:scotty2]]
<br />


==Définition==
==Définition==
L'algorithme espérance-maximisation ( ''expectation-maximization algorithm'', souvent abrégé EM), proposé par Dempster (1977), est un algorithme itératif qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste lorsque ce dernier dépend de variables latentes non observables. De nombreuses variantes ont par la suite été proposées, formant une classe entière d'algorithmes.<br><br />
[[Algorithme d'apprentissage]] non supervisé qui permet de trouver les paramètres du [[maximum de vraisemblance]] d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables.  
[[Fichier:EM algorithm.gif]]
<br />
<br />


Remarque : cet algorithme itératif comporte deux étapes:
# Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.
# Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).


==Français==
==Français==
'''algorithme EM '''
'''algorithme EM'''
 
'''algorithme espérance-maximisation''' 


'''algorithme espérance-maximisation '''
==Anglais==
'''EM algorithm'''


<br />
'''Expectation–Maximization algorithm'''
==Sources==
[https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Source : Wikipédia, ''Algorithme espérance-maximisation'']


Source : Govaert, Gérard et Mohamed Nadif (2009). ''Un modèle de mélange pour la classification croisée d’un tableau de données continue'', Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.


==Anglais==
Source : Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). ''Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements'', Revue d'Épidémiologie et de Santé Publique 62(5), page S196.
'''EM algorithm '''
 
[https://www.isi-web.org/glossary?language=2  Source : ISI Glossaire ]


'''Expectation–Maximization algorithm'''
[https://isi.cbs.nl/glossary/term1158.htm  Source : ISI ]


<br />
[[Utilisateur:Patrickdrouin  | Source : Termino]]
<br />


<br />
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation Source Wikipedia]
[[Catégorie:Apprentissage profond]]
<br />
[[Catégorie: Termino 2019]]
<br />
[https://datafranca.org/lexique/algorithme-em/ ''Publié : datafranca.org'']
<br />

Dernière version du 30 août 2024 à 13:54

Définition

Algorithme d'apprentissage non supervisé qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables.

Remarque : cet algorithme itératif comporte deux étapes:

  1. Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.
  2. Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).

Français

algorithme EM

algorithme espérance-maximisation

Anglais

EM algorithm

Expectation–Maximization algorithm

Sources

Source : Wikipédia, Algorithme espérance-maximisation

Source : Govaert, Gérard et Mohamed Nadif (2009). Un modèle de mélange pour la classification croisée d’un tableau de données continue, Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.

Source : Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements, Revue d'Épidémiologie et de Santé Publique 62(5), page S196.

Source : ISI Glossaire

Source : ISI

Source : Termino