« Algorithme EM » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
 
(13 versions intermédiaires par un autre utilisateur non affichées)
Ligne 1 : Ligne 1 :
[[Category:GRAND LEXIQUE FRANÇAIS]]
<!-- Vocabulaire -->
<!-- Google -->
[[Category:Apprentissage profond]]
<!-- Scotty2 -->
[[Category: Termino 2019]]


==Définition==
==Définition==
Algorithme d'apprentissage non supervisé qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables. <br>
[[Algorithme d'apprentissage]] non supervisé qui permet de trouver les paramètres du [[maximum de vraisemblance]] d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables.  


Note: cet algorithme itératif comporte deux étapes:  
Remarque : cet algorithme itératif comporte deux étapes:  
# Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.  
# Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.  
# Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).  
# Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).  


==Français==
==Français==
'''algorithme EM   '''  <small>loc. nom. masc.</small>
'''algorithme EM'''   


'''algorithme espérance-maximisation '''  <small>loc. nom. masc.</small>
'''algorithme espérance-maximisation'''   


==Anglais==
==Anglais==
'''EM algorithm '''
'''EM algorithm'''


'''Expectation–Maximization algorithm'''
'''Expectation–Maximization algorithm'''


==Sources==
[https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Source : Wikipédia, ''Algorithme espérance-maximisation'']


Source : Govaert, Gérard et Mohamed Nadif (2009). ''Un modèle de mélange pour la classification croisée d’un tableau de données continue'', Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.


<small>
Source : Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). ''Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements'', Revue d'Épidémiologie et de Santé Publique 62(5), page S196.


[https://fr.wikipedia.org/wiki/Algorithme_esp%C3%A9rance-maximisation, Source: Wikipédia, ''Algorithme espérance-maximisation'']<br />
[https://www.isi-web.org/glossary?language=2  Source : ISI Glossaire ]


Source: Govaert, Gérard et Mohamed Nadif (2009). ''Un modèle de mélange pour la classification croisée d’un tableau de données continue'', Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.<br />
[https://isi.cbs.nl/glossary/term1158.htm  Source : ISI ]


Source: Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). ''Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements'', Revue d'Épidémiologie et de Santé Publique 62(5), page S196.<br />
[[Utilisateur:Patrickdrouin  | Source : Termino]]


[[Utilisateur:Patrickdrouin  | Source: Termino]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Apprentissage profond]]
[[Catégorie: Termino 2019]]

Dernière version du 2 mai 2024 à 13:43

Définition

Algorithme d'apprentissage non supervisé qui permet de trouver les paramètres du maximum de vraisemblance d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables.

Remarque : cet algorithme itératif comporte deux étapes:

  1. Une étape d’évaluation de l’espérance (E) de la fonction de vraisemblance. Cette étape pondère dans quelle mesure chaque donnée contribue à l’estimation de la vraisemblance maximale.
  2. Une étape de maximisation (M) de la fonction de vraisemblance trouvée à l’étape E où les paramètres sont ajustés en fonction des données qui ont été repondérées. Les paramètres mis-à-jour à l’étape M sont réinjectés à l’étape E et on itère ainsi jusqu’à la convergence (les paramètres ne changent plus).

Français

algorithme EM

algorithme espérance-maximisation

Anglais

EM algorithm

Expectation–Maximization algorithm

Sources

Source : Wikipédia, Algorithme espérance-maximisation

Source : Govaert, Gérard et Mohamed Nadif (2009). Un modèle de mélange pour la classification croisée d’un tableau de données continue, Actes de la 11e conférence sur l’apprentissage artificiel, Hammamet,Tunisie. pages 287-302.

Source : Li, X. Guttmann, A.; Cipière, S.; Demongeot, J.; JY Boire et L Ouchchane (2014). Utilisation de l’algorithme EM pour estimer les paramètres du chaînage probabiliste d’enregistrements, Revue d'Épidémiologie et de Santé Publique 62(5), page S196.

Source : ISI Glossaire

Source : ISI

Source : Termino