« Autoencodeur variationnel » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « '''==Sources== » par « ''' ==Sources== »)
 
(Une version intermédiaire par le même utilisateur non affichée)
Ligne 22 : Ligne 22 :
'''VAE'''
'''VAE'''


<small>
==Sources==


Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.  
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.  

Dernière version du 27 janvier 2024 à 17:12

Définition

Variante générative et probabiliste de l'architecture de réseau de neurones autoencodeur qui se base sur les modèles graphiques probabilistes et les méthodes bayésiennes variationnelles.

Compléments

L'autoencodeur variationnel a été proposé par Kingma et Welling en 2014.

Par exemple, un autoencodeur variationnel peut servir à générer des images. D'abord il encode des images sous une représentation latente compressée, puis décode cette représentation latente vers une image de la dimension de départ, tout en apprenant la distribution statistique des images.

Français

autoencodeur variationnel

auto-encodeur variationnel

Anglais

variational auto-encoder

variational auto encoder

variational autoencoder

VAE

Sources

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Géron, Aurélien (2017). Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets, Paris, Dunod, 360 pages.

Source: Hadjeres, Gaëtan (2018). Interactive deep generative models for symbolic music, thèse de doctorat, Sorbonne Université, 191 pages.

Source: Termino