« Algorithme EM » : différence entre les versions


m (Remplacement de texte : « * [https:// » par « [https:// »)
Aucun résumé des modifications
Ligne 1 : Ligne 1 :


==Définition==
==Définition==
Algorithme d'apprentissage non supervisé qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables.  
[[Algorithme d'apprentissage]] non supervisé qui permet de trouver les paramètres du [[maximum de vraisemblance]] d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables.  


Note: cet algorithme itératif comporte deux étapes:  
Remarque : cet algorithme itératif comporte deux étapes:  
# Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.  
# Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.  
# Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).  
# Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).  


==Français==
==Français==
'''algorithme EM   '''   
'''algorithme EM'''   


'''algorithme espérance-maximisation '''   
'''algorithme espérance-maximisation'''   


==Anglais==
==Anglais==
'''EM algorithm '''
'''EM algorithm'''


'''Expectation–Maximization algorithm'''
'''Expectation–Maximization algorithm'''
==Sources==
==Sources==
[https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Source : Wikipédia, ''Algorithme espérance-maximisation'']


[https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Source: Wikipédia, ''Algorithme espérance-maximisation'']
Source : Govaert, Gérard et Mohamed Nadif (2009). ''Un modèle de mélange pour la classification croisée d’un tableau de données continue'', Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.
 
Source: Govaert, Gérard et Mohamed Nadif (2009). ''Un modèle de mélange pour la classification croisée d’un tableau de données continue'', Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.


Source: Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). ''Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements'', Revue d'Épidémiologie et de Santé Publique 62(5), page S196.
Source : Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). ''Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements'', Revue d'Épidémiologie et de Santé Publique 62(5), page S196.


[https://www.isi-web.org/glossary?language=2  Source : ISI Glossaire ]
[https://www.isi-web.org/glossary?language=2  Source : ISI Glossaire ]
Ligne 28 : Ligne 28 :
[https://isi.cbs.nl/glossary/term1158.htm  Source : ISI ]
[https://isi.cbs.nl/glossary/term1158.htm  Source : ISI ]


[[Utilisateur:Patrickdrouin  | Source: Termino]]
[[Utilisateur:Patrickdrouin  | Source : Termino]]


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Apprentissage profond]]
[[Catégorie:Apprentissage profond]]
[[Catégorie: Termino 2019]]
[[Catégorie: Termino 2019]]

Version du 2 mai 2024 à 12:43

Définition

Algorithme d'apprentissage non supervisé qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables.

Remarque : cet algorithme itératif comporte deux étapes:

  1. Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.
  2. Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).

Français

algorithme EM

algorithme espérance-maximisation

Anglais

EM algorithm

Expectation–Maximization algorithm

Sources

Source : Wikipédia, Algorithme espérance-maximisation

Source : Govaert, Gérard et Mohamed Nadif (2009). Un modèle de mélange pour la classification croisée d’un tableau de données continue, Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.

Source : Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements, Revue d'Épidémiologie et de Santé Publique 62(5), page S196.

Source : ISI Glossaire

Source : ISI

Source : Termino