« Algorithme EM » : différence entre les versions
m (Remplacement de texte : « * [https:// » par « [https:// ») |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Algorithme d'apprentissage non supervisé qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables. | [[Algorithme d'apprentissage]] non supervisé qui permet de trouver les paramètres du [[maximum de vraisemblance]] d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables. | ||
Remarque : cet algorithme itératif comporte deux étapes: | |||
# Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale. | # Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale. | ||
# Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus). | # Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus). | ||
==Français== | ==Français== | ||
'''algorithme EM | '''algorithme EM''' | ||
'''algorithme espérance-maximisation ''' | '''algorithme espérance-maximisation''' | ||
==Anglais== | ==Anglais== | ||
'''EM algorithm ''' | '''EM algorithm''' | ||
'''Expectation–Maximization algorithm''' | '''Expectation–Maximization algorithm''' | ||
==Sources== | ==Sources== | ||
[https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Source : Wikipédia, ''Algorithme espérance-maximisation''] | |||
Source : Govaert, Gérard et Mohamed Nadif (2009). ''Un modèle de mélange pour la classification croisée d’un tableau de données continue'', Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302. | |||
Source: Govaert, Gérard et Mohamed Nadif (2009). ''Un modèle de mélange pour la classification croisée d’un tableau de données continue'', Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302. | |||
Source: Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). ''Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements'', Revue d'Épidémiologie et de Santé Publique 62(5), page S196. | Source : Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). ''Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements'', Revue d'Épidémiologie et de Santé Publique 62(5), page S196. | ||
[https://www.isi-web.org/glossary?language=2 Source : ISI Glossaire ] | [https://www.isi-web.org/glossary?language=2 Source : ISI Glossaire ] | ||
Ligne 28 : | Ligne 28 : | ||
[https://isi.cbs.nl/glossary/term1158.htm Source : ISI ] | [https://isi.cbs.nl/glossary/term1158.htm Source : ISI ] | ||
[[Utilisateur:Patrickdrouin | Source: Termino]] | [[Utilisateur:Patrickdrouin | Source : Termino]] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
[[Catégorie:Apprentissage profond]] | [[Catégorie:Apprentissage profond]] | ||
[[Catégorie: Termino 2019]] | [[Catégorie: Termino 2019]] |
Version du 2 mai 2024 à 12:43
Définition
Algorithme d'apprentissage non supervisé qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables.
Remarque : cet algorithme itératif comporte deux étapes:
- Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.
- Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).
Français
algorithme EM
algorithme espérance-maximisation
Anglais
EM algorithm
Expectation–Maximization algorithm
Sources
Source : Wikipédia, Algorithme espérance-maximisation
Source : Govaert, Gérard et Mohamed Nadif (2009). Un modèle de mélange pour la classification croisée d’un tableau de données continue, Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.
Source : Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements, Revue d'Épidémiologie et de Santé Publique 62(5), page S196.
Contributeurs: Claire Gorjux, Jacques Barolet, Julie Roy, wiki, Robert Meloche