« Algorithme EM » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte : « ↵↵==Sources== » par « ==Sources== ») |
||
(38 versions intermédiaires par 4 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | |||
[[Algorithme d'apprentissage]] non supervisé qui permet de trouver les paramètres du [[maximum de vraisemblance]] d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables. | |||
Remarque : cet algorithme itératif comporte deux étapes: | |||
# Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale. | |||
# Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus). | |||
==Français== | |||
'''algorithme EM''' | |||
'''algorithme espérance-maximisation''' | |||
'''algorithme | |||
''' | ==Anglais== | ||
'''EM algorithm''' | |||
'''Expectation–Maximization algorithm''' | |||
==Sources== | |||
[https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Source : Wikipédia, ''Algorithme espérance-maximisation''] | |||
Source : Govaert, Gérard et Mohamed Nadif (2009). ''Un modèle de mélange pour la classification croisée d’un tableau de données continue'', Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302. | |||
Source : Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). ''Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements'', Revue d'Épidémiologie et de Santé Publique 62(5), page S196. | |||
[https://www.isi-web.org/glossary?language=2 Source : ISI Glossaire ] | |||
[https://isi.cbs.nl/glossary/term1158.htm Source : ISI ] | |||
[[Utilisateur:Patrickdrouin | Source : Termino]] | |||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | |||
[ | [[Catégorie:Apprentissage profond]] | ||
[[Catégorie: Termino 2019]] | |||
[ | |||
Dernière version du 30 août 2024 à 13:54
Définition
Algorithme d'apprentissage non supervisé qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables.
Remarque : cet algorithme itératif comporte deux étapes:
- Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.
- Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).
Français
algorithme EM
algorithme espérance-maximisation
Anglais
EM algorithm
Expectation–Maximization algorithm
Sources
Source : Wikipédia, Algorithme espérance-maximisation
Source : Govaert, Gérard et Mohamed Nadif (2009). Un modèle de mélange pour la classification croisée d’un tableau de données continue, Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.
Source : Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements, Revue d'Épidémiologie et de Santé Publique 62(5), page S196.
Contributeurs: Claire Gorjux, Jacques Barolet, Julie Roy, wiki, Robert Meloche