« Algorithme EM » : différence entre les versions
(Page créée avec « __NOTOC__ == Domaine == Category:Claude2Claude<br /> Category:GRAND LEXIQUE FRANÇAIS Category:Vocabulaire2 Category:Google2 Category:Apprentissage profo... ») |
m (Remplacement de texte : « ↵↵==Sources== » par « ==Sources== ») |
||
(40 versions intermédiaires par 4 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | |||
[[Algorithme d'apprentissage]] non supervisé qui permet de trouver les paramètres du [[maximum de vraisemblance]] d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables. | |||
Remarque : cet algorithme itératif comporte deux étapes: | |||
# Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale. | |||
# Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus). | |||
== Français == | ==Français== | ||
'''algorithme EM''' | |||
'''algorithme espérance-maximisation''' | |||
==Anglais== | |||
'''EM algorithm''' | |||
'''Expectation–Maximization algorithm''' | |||
== | ==Sources== | ||
[https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Source : Wikipédia, ''Algorithme espérance-maximisation''] | |||
Source : Govaert, Gérard et Mohamed Nadif (2009). ''Un modèle de mélange pour la classification croisée d’un tableau de données continue'', Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302. | |||
Source : Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). ''Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements'', Revue d'Épidémiologie et de Santé Publique 62(5), page S196. | |||
[https:// | |||
[https://www.isi-web.org/glossary?language=2 Source : ISI Glossaire ] | |||
[https:// | [https://isi.cbs.nl/glossary/term1158.htm Source : ISI ] | ||
[[Utilisateur:Patrickdrouin | Source : Termino]] | |||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | |||
[[Catégorie:Apprentissage profond]] | |||
[[Catégorie: Termino 2019]] |
Dernière version du 30 août 2024 à 13:54
Définition
Algorithme d'apprentissage non supervisé qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables.
Remarque : cet algorithme itératif comporte deux étapes:
- Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.
- Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).
Français
algorithme EM
algorithme espérance-maximisation
Anglais
EM algorithm
Expectation–Maximization algorithm
Sources
Source : Wikipédia, Algorithme espérance-maximisation
Source : Govaert, Gérard et Mohamed Nadif (2009). Un modèle de mélange pour la classification croisée d’un tableau de données continue, Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.
Source : Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements, Revue d'Épidémiologie et de Santé Publique 62(5), page S196.
Contributeurs: Claire Gorjux, Jacques Barolet, Julie Roy, wiki, Robert Meloche