« Autoencodeur » : différence entre les versions


m (Remplacement de texte — « masculin » par «  »)
m (Remplacement de texte : « ↵↵==Sources== » par «  ==Sources== »)
 
(9 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
Architecture de réseau de neurones artificiels capable d'apprendre sans supervision des représentations qui sont généralement de dimensions inférieures aux données d'entrée.
Architecture de réseau de neurones artificiels capable d'[[apprentissage non supervisé|apprendre sans supervision]] des représentations qui sont généralement de dimensions inférieures aux données d'entrée.


Note: les autoencodeurs sont utilisés pour la réduction de la dimension des données, pour extraire des attributs (ou caractéristiques), pour générer de nouvelles données (modèles génératifs), ou pour débruiter des données.
L'autoencodeur est un réseau de neurones semblable au perceptron multicouche pour l'[[apprentissage non-supervisé]] d'attributs des données d'entrée vers une représentation interne de plus faible dimension, processus appelé encodage (fait par un encodeur), puis vers une représentation de sortie de même dimension que la couche d'entrée, processus appelé décodage (fait par un décodeur).
 
==Compléments==
 
A priori, un autoencodeur apprend simplement à reconstruire ses données d'entrée vers la sortie. Mais cette tâche apparemment triviale est compliquée par des contraintes introduites dans le réseau, comme en limitant la taille de la représentation interne (ou représentation latente), ce qui crée une sorte de goulot d'étranglement.
 
Les autoencodeurs sont utilisés pour la réduction de la dimension des données, pour extraire des attributs (ou caractéristiques), pour générer de nouvelles données (modèles génératifs), ou pour débruiter des données.


==Français==
==Français==
'''Autoencodeur'''   
'''autoencodeur'''   
 
'''auto-encodeur''' 
 
'''auto encodeur'''  <small>moins fréquent</small>
 
'''autoassociateur'''  <small>moins fréquent</small>


'''Autoassociateur'''  <small>
'''auto-associateur'''  <small>moins fréquent</small>
</small>


==Anglais==
==Anglais==
'''Autoencoder'''
'''autoencoder'''


'''auto-encoder'''


<small>
'''auto encoder'''
 
'''self-encoder'''
==Sources==


Source: Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages.
Source: Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages.


Source: Géron, Aurélien (2017). ''Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets'', Paris, Dunod, 360 pages.  
Source: Géron, Aurélien (2017). ''Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets'', Paris, Dunod, 360 pages.  
Source: François Chollet, L’apprentissage profond avec Python, première édition française, Collection Les essentiels de l'IA, machinelearning.fr 2020.


Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.
Source: [https://catalogue.edulib.org/fr/cours/VIARENA/ Cours VIARENA: Vision artificielle et exploitation intelligente des ressources naturelles]


Source: [https://www.google.com/search?q=autoencodeur&rlz=1C1AVFC_enCA829CA829&oq=autoencodeur&aqs=chrome..69i57&sourceid=chrome&ie=UTF-8 Wikipedia, ''Auto-encodeur''].
Source: [https://www.google.com/search?q=autoencodeur&rlz=1C1AVFC_enCA829CA829&oq=autoencodeur&aqs=chrome..69i57&sourceid=chrome&ie=UTF-8 Wikipedia, ''Auto-encodeur''].
Ligne 26 : Ligne 45 :
[[Utilisateur:Patrickdrouin  | Source: Termino  ]]
[[Utilisateur:Patrickdrouin  | Source: Termino  ]]


[[Catégorie:Intelligence artificielle]]
[[Catégorie:Apprentissage profond]]
[[Catégorie:Termino 2019]]
[[Catégorie:Termino 2019]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 30 août 2024 à 13:49

Définition

Architecture de réseau de neurones artificiels capable d'apprendre sans supervision des représentations qui sont généralement de dimensions inférieures aux données d'entrée.

L'autoencodeur est un réseau de neurones semblable au perceptron multicouche pour l'apprentissage non-supervisé d'attributs des données d'entrée vers une représentation interne de plus faible dimension, processus appelé encodage (fait par un encodeur), puis vers une représentation de sortie de même dimension que la couche d'entrée, processus appelé décodage (fait par un décodeur).

Compléments

A priori, un autoencodeur apprend simplement à reconstruire ses données d'entrée vers la sortie. Mais cette tâche apparemment triviale est compliquée par des contraintes introduites dans le réseau, comme en limitant la taille de la représentation interne (ou représentation latente), ce qui crée une sorte de goulot d'étranglement.

Les autoencodeurs sont utilisés pour la réduction de la dimension des données, pour extraire des attributs (ou caractéristiques), pour générer de nouvelles données (modèles génératifs), ou pour débruiter des données.

Français

autoencodeur

auto-encodeur

auto encodeur moins fréquent

autoassociateur moins fréquent

auto-associateur moins fréquent

Anglais

autoencoder

auto-encoder

auto encoder

self-encoder

Sources

Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.

Source: Géron, Aurélien (2017). Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets, Paris, Dunod, 360 pages.

Source: François Chollet, L’apprentissage profond avec Python, première édition française, Collection Les essentiels de l'IA, machinelearning.fr 2020.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Cours VIARENA: Vision artificielle et exploitation intelligente des ressources naturelles

Source: Wikipedia, Auto-encodeur.

Source: Termino