« Divergence contractive persistante » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
[[Catégorie:Vocabulaire]] | |||
[[Catégorie:App-profond-livre]] | |||
[[Catégorie:Apprentissage profond]] | |||
== Définition == | == Définition == | ||
La divergence contractive persistante est une méthode d’apprentissage pour les machines de Boltzmann restreintes, qui sont des modèles probabilistes non supervisés utilisés pour l’apprentissage profond. La divergence contractive persistante est une variante de la divergence contractive, qui est une approximation de la vraisemblance du modèle. Elle utilise un échantillonnage de Gibbs plus long pour réduire le biais de l’approximation. | La divergence contractive persistante est une méthode d’apprentissage pour les machines de Boltzmann restreintes, qui sont des modèles probabilistes non supervisés utilisés pour l’apprentissage profond. La divergence contractive persistante est une variante de la divergence contractive, qui est une approximation de la vraisemblance du modèle. Elle utilise un échantillonnage de Gibbs plus long pour réduire le biais de l’approximation. | ||
Ligne 12 : | Ligne 16 : | ||
[https://www.apprentissageprofond.org/ Source : ''L'apprentissage profond'', Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018] | [https://www.apprentissageprofond.org/ Source : ''L'apprentissage profond'', Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 ] | ||
[https://datascience.stackexchange.com/questions/30186/understanding-contrastive-divergence Source : DataScience] | [https://datascience.stackexchange.com/questions/30186/understanding-contrastive-divergence Source : DataScience] | ||
Version du 28 novembre 2023 à 12:19
Définition
La divergence contractive persistante est une méthode d’apprentissage pour les machines de Boltzmann restreintes, qui sont des modèles probabilistes non supervisés utilisés pour l’apprentissage profond. La divergence contractive persistante est une variante de la divergence contractive, qui est une approximation de la vraisemblance du modèle. Elle utilise un échantillonnage de Gibbs plus long pour réduire le biais de l’approximation.
Français
Divergence contractive persistante
Anglais
Persistant contractive divergence
Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018
Source : DataScience
Contributeurs: Jacques Barolet, Marie Alfaro, wiki