« Autoencodeur variationnel » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte : « ↵↵==Sources== » par « ==Sources== ») |
||
(20 versions intermédiaires par 4 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | |||
[[ | Variante générative et probabiliste de l'architecture de réseau de neurones [[autoencodeur]] qui se base sur les [[modèle graphique|modèles graphiques probabilistes]] et les [[méthode bayésienne variationnelle|méthodes bayésiennes variationnelles]]. | ||
[[ | |||
[[ | |||
== | ==Compléments== | ||
L'autoencodeur variationnel a été proposé par Kingma et Welling en 2014. | |||
Par exemple, un autoencodeur variationnel peut servir à générer des images. D'abord il encode des images sous une [[espace latent|représentation latente]] compressée, puis décode cette représentation latente vers une image de la dimension de départ, tout en apprenant la distribution statistique des images. | |||
==Français== | ==Français== | ||
''' | '''autoencodeur variationnel''' | ||
''' | '''auto-encodeur variationnel''' | ||
==Anglais== | ==Anglais== | ||
'''variational auto-encoder''' | |||
'''variational auto encoder''' | '''variational auto encoder''' | ||
Ligne 21 : | Ligne 20 : | ||
'''variational autoencoder''' | '''variational autoencoder''' | ||
'''VAE''' | |||
==Sources== | |||
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages. | Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages. | ||
Ligne 30 : | Ligne 29 : | ||
Source: Hadjeres, Gaëtan (2018). ''Interactive deep generative models for symbolic music'', thèse de doctorat, Sorbonne Université, 191 pages. | Source: Hadjeres, Gaëtan (2018). ''Interactive deep generative models for symbolic music'', thèse de doctorat, Sorbonne Université, 191 pages. | ||
[[Utilisateur:Patrickdrouin | Source : Termino]] | [[Utilisateur:Patrickdrouin | Source: Termino]] | ||
[[Catégorie:Intelligence artificielle]] | |||
[[Catégorie:Apprentissage profond]] | |||
[[Catégorie:Termino 2019]] | |||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 30 août 2024 à 14:00
Définition
Variante générative et probabiliste de l'architecture de réseau de neurones autoencodeur qui se base sur les modèles graphiques probabilistes et les méthodes bayésiennes variationnelles.
Compléments
L'autoencodeur variationnel a été proposé par Kingma et Welling en 2014.
Par exemple, un autoencodeur variationnel peut servir à générer des images. D'abord il encode des images sous une représentation latente compressée, puis décode cette représentation latente vers une image de la dimension de départ, tout en apprenant la distribution statistique des images.
Français
autoencodeur variationnel
auto-encodeur variationnel
Anglais
variational auto-encoder
variational auto encoder
variational autoencoder
VAE
Sources
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Géron, Aurélien (2017). Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets, Paris, Dunod, 360 pages.
Source: Hadjeres, Gaëtan (2018). Interactive deep generative models for symbolic music, thèse de doctorat, Sorbonne Université, 191 pages.
Contributeurs: Claude Coulombe, Imane Meziani, Jacques Barolet, Patrick Drouin, wiki