« Autoencodeur » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵↵==Sources== » par « ==Sources== ») |
||
(8 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Architecture de réseau de neurones artificiels capable d'apprendre sans supervision des représentations qui sont généralement de dimensions inférieures aux données d'entrée. | Architecture de réseau de neurones artificiels capable d'[[apprentissage non supervisé|apprendre sans supervision]] des représentations qui sont généralement de dimensions inférieures aux données d'entrée. | ||
L'autoencodeur est un réseau de neurones semblable au perceptron multicouche pour l'[[apprentissage non-supervisé]] d'attributs des données d'entrée vers une représentation interne de plus faible dimension, processus appelé encodage (fait par un encodeur), puis vers une représentation de sortie de même dimension que la couche d'entrée, processus appelé décodage (fait par un décodeur). | |||
==Compléments== | |||
A priori, un autoencodeur apprend simplement à reconstruire ses données d'entrée vers la sortie. Mais cette tâche apparemment triviale est compliquée par des contraintes introduites dans le réseau, comme en limitant la taille de la représentation interne (ou représentation latente), ce qui crée une sorte de goulot d'étranglement. | |||
Les autoencodeurs sont utilisés pour la réduction de la dimension des données, pour extraire des attributs (ou caractéristiques), pour générer de nouvelles données (modèles génératifs), ou pour débruiter des données. | |||
==Français== | ==Français== | ||
''' | '''autoencodeur''' | ||
'''auto-encodeur''' | |||
'''auto encodeur''' <small>moins fréquent</small> | |||
'''autoassociateur''' <small>moins fréquent</small> | |||
''' | '''auto-associateur''' <small>moins fréquent</small> | ||
</small> | |||
==Anglais== | ==Anglais== | ||
''' | '''autoencoder''' | ||
''' | '''auto-encoder''' | ||
'''auto encoder''' | |||
'''self-encoder''' | |||
==Sources== | |||
Source: Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages. | Source: Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages. | ||
Source: Géron, Aurélien (2017). ''Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets'', Paris, Dunod, 360 pages. | Source: Géron, Aurélien (2017). ''Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets'', Paris, Dunod, 360 pages. | ||
Source: François Chollet, L’apprentissage profond avec Python, première édition française, Collection Les essentiels de l'IA, machinelearning.fr 2020. | |||
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages. | Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages. | ||
Source: [https://catalogue.edulib.org/fr/cours/VIARENA/ Cours VIARENA: Vision artificielle et exploitation intelligente des ressources naturelles] | |||
Source: [https://www.google.com/search?q=autoencodeur&rlz=1C1AVFC_enCA829CA829&oq=autoencodeur&aqs=chrome..69i57&sourceid=chrome&ie=UTF-8 Wikipedia, ''Auto-encodeur'']. | Source: [https://www.google.com/search?q=autoencodeur&rlz=1C1AVFC_enCA829CA829&oq=autoencodeur&aqs=chrome..69i57&sourceid=chrome&ie=UTF-8 Wikipedia, ''Auto-encodeur'']. |
Dernière version du 30 août 2024 à 13:49
Définition
Architecture de réseau de neurones artificiels capable d'apprendre sans supervision des représentations qui sont généralement de dimensions inférieures aux données d'entrée.
L'autoencodeur est un réseau de neurones semblable au perceptron multicouche pour l'apprentissage non-supervisé d'attributs des données d'entrée vers une représentation interne de plus faible dimension, processus appelé encodage (fait par un encodeur), puis vers une représentation de sortie de même dimension que la couche d'entrée, processus appelé décodage (fait par un décodeur).
Compléments
A priori, un autoencodeur apprend simplement à reconstruire ses données d'entrée vers la sortie. Mais cette tâche apparemment triviale est compliquée par des contraintes introduites dans le réseau, comme en limitant la taille de la représentation interne (ou représentation latente), ce qui crée une sorte de goulot d'étranglement.
Les autoencodeurs sont utilisés pour la réduction de la dimension des données, pour extraire des attributs (ou caractéristiques), pour générer de nouvelles données (modèles génératifs), ou pour débruiter des données.
Français
autoencodeur
auto-encodeur
auto encodeur moins fréquent
autoassociateur moins fréquent
auto-associateur moins fréquent
Anglais
autoencoder
auto-encoder
auto encoder
self-encoder
Sources
Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source: Géron, Aurélien (2017). Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets, Paris, Dunod, 360 pages.
Source: François Chollet, L’apprentissage profond avec Python, première édition française, Collection Les essentiels de l'IA, machinelearning.fr 2020.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Cours VIARENA: Vision artificielle et exploitation intelligente des ressources naturelles
Source: Wikipedia, Auto-encodeur.
Contributeurs: Claude Coulombe, Imane Meziani, Jacques Barolet, Patrick Drouin, wiki