« Algorithme EM » : différence entre les versions
m (Remplacement de texte — « [http » par « * [http ») |
m (Remplacement de texte : « ↵↵<small> » par « ==Sources== ») |
||
Ligne 16 : | Ligne 16 : | ||
'''Expectation–Maximization algorithm''' | '''Expectation–Maximization algorithm''' | ||
==Sources== | |||
* [https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Source: Wikipédia, ''Algorithme espérance-maximisation''] | * [https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Source: Wikipédia, ''Algorithme espérance-maximisation''] |
Version du 27 janvier 2024 à 16:21
Définition
Algorithme d'apprentissage non supervisé qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables.
Note: cet algorithme itératif comporte deux étapes:
- Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.
- Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).
Français
algorithme EM
algorithme espérance-maximisation
Anglais
EM algorithm
Expectation–Maximization algorithm
Sources
Source: Govaert, Gérard et Mohamed Nadif (2009). Un modèle de mélange pour la classification croisée d’un tableau de données continue, Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.
Source: Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements, Revue d'Épidémiologie et de Santé Publique 62(5), page S196.
Contributeurs: Claire Gorjux, Jacques Barolet, Julie Roy, wiki, Robert Meloche