« Échantillonnage de Gibbs » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(3 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
[[Catégorie:Apprentissage profond]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
{{DEFAULTSORT: Echantillonnage de Gibbs}}
==Définition==
==Définition==
L'échantillonnage de Gibbs est une méthode '''[[Méthode de Monte-Carlo par chaînes de Markov|MCCM]]'''. Étant donnée une distribution de probabilité π sur un univers Ω, cet algorithme définit une chaîne de Markov dont la distribution stationnaire est π. Il permet ainsi de tirer aléatoirement un élément de Ω selon la loi π (on parle d'échantillonnage).
L'échantillonnage de Gibbs est une méthode '''[[Méthode de Monte-Carlo par chaînes de Markov|MCCM]]'''. Étant donnée une distribution de probabilité π sur un univers Ω, cet algorithme définit une chaîne de Markov dont la distribution stationnaire est π. Il permet ainsi de tirer aléatoirement un élément de Ω selon la loi π (on parle d'échantillonnage).


==Français==
==Français==
'''échantillonnage de Gibbs'''  <small>loc. nom. masc.</small>
'''échantillonnage de Gibbs'''   
   
   
==Anglais==
==Anglais==
'''Gibbs sampling'''
'''Gibbs sampling'''


 
==Sources==
<small>


[https://www.apprentissageprofond.org/ Source :  ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018 page 576]
[https://www.apprentissageprofond.org/ Source :  ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018 page 576]


[https://fr.wikipedia.org/wiki/%C3%89chantillonnage_de_Gibbs Souce : Wikipedia]
[https://fr.wikipedia.org/wiki/%C3%89chantillonnage_de_Gibbs Souce : Wikipedia]
[[Catégorie:Apprentissage profond]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
{{DEFAULTSORT: Echantillonnage de Gibbs}}

Dernière version du 28 janvier 2024 à 14:08

Définition

L'échantillonnage de Gibbs est une méthode MCCM. Étant donnée une distribution de probabilité π sur un univers Ω, cet algorithme définit une chaîne de Markov dont la distribution stationnaire est π. Il permet ainsi de tirer aléatoirement un élément de Ω selon la loi π (on parle d'échantillonnage).

Français

échantillonnage de Gibbs

Anglais

Gibbs sampling

Sources

Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 page 576

Souce : Wikipedia

Contributeurs: Jacques Barolet, wiki