« Divergence contractive persistante » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵↵↵==Sources== » par «  ==Sources== »)
 
(3 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
[[Catégorie:Vocabulaire]]
[[Catégorie:App-profond-livre]]
[[Catégorie:Apprentissage profond]]
== Définition ==
== Définition ==
La divergence contractive persistante est une méthode d’apprentissage pour les machines de Boltzmann restreintes, qui sont des modèles probabilistes non supervisés utilisés pour l’apprentissage profond. La divergence contractive persistante est une variante de la divergence contractive, qui est une approximation de la vraisemblance du modèle. Elle utilise un échantillonnage de Gibbs plus long pour réduire le biais de l’approximation.
La divergence contractive persistante est une méthode d’apprentissage pour les machines de Boltzmann restreintes, qui sont des modèles probabilistes non supervisés utilisés pour l’apprentissage profond. La divergence contractive persistante est une variante de la divergence contractive, qui est une approximation de la vraisemblance du modèle. Elle utilise un échantillonnage de Gibbs plus long pour réduire le biais de l’approximation.
Ligne 11 : Ligne 7 :
== Anglais ==
== Anglais ==
'''Persistant contractive divergence'''
'''Persistant contractive divergence'''
==Sources==




<small>
[https://www.apprentissageprofond.org/  Source :  ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018 ]
[https://datascience.stackexchange.com/questions/30186/understanding-contrastive-divergence  Source : DataScience ]


[[Catégorie:Apprentissage profond]]


[https://www.apprentissageprofond.org/  Source :  ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018 ]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[https://datascience.stackexchange.com/questions/30186/understanding-contrastive-divergence  Source : DataScience]

Dernière version du 29 janvier 2024 à 12:13

Définition

La divergence contractive persistante est une méthode d’apprentissage pour les machines de Boltzmann restreintes, qui sont des modèles probabilistes non supervisés utilisés pour l’apprentissage profond. La divergence contractive persistante est une variante de la divergence contractive, qui est une approximation de la vraisemblance du modèle. Elle utilise un échantillonnage de Gibbs plus long pour réduire le biais de l’approximation.

Français

Divergence contractive persistante

Anglais

Persistant contractive divergence

Sources

Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 Source : DataScience



Contributeurs: Jacques Barolet, Marie Alfaro, wiki