« Algorithme EM » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
__NOTOC__ | __NOTOC__ | ||
==Domaine== | ==Domaine== | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Category:Vocabulaire2]] | [[Category:Vocabulaire2]] | ||
[[Category:Google2]] | [[Category:Google2]] | ||
[[Category:Apprentissage | [[Category:Apprentissage profond]]Apprentissage profond<br /> | ||
[[Category:scotty2]] | [[Category:scotty2]] | ||
Version du 3 juin 2019 à 15:27
Domaine
Apprentissage profond
Définition
L'algorithme espérance-maximisation ( expectation-maximization algorithm, souvent abrégé EM), proposé par Dempster (1977), est un algorithme itératif qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste lorsque ce dernier dépend de variables latentes non observables. De nombreuses variantes ont par la suite été proposées, formant une classe entière d'algorithmes.
Français
algorithme EM
algorithme espérance-maximisation
Anglais
EM algorithm
Expectation–Maximization algorithm
Contributeurs: Claire Gorjux, Jacques Barolet, Julie Roy, wiki, Robert Meloche