« Autoencodeur » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
==Domaine==
==Domaine==


[[Category:Vocabulaire]]
[[Category:Vocabulaire2]]
[[Category:Intelligence artificielle]]
[[Category:Intelligence artificielle]]
Intelligence artificielle<br />
Intelligence artificielle<br />
Ligne 7 : Ligne 7 :
Apprentissage profond<br>  
Apprentissage profond<br>  
[[Category:Termino 2019]]
[[Category:Termino 2019]]
[[Category:Scotty]]
[[Category:Scotty2]]
[[Category:9]]


<br>




Ligne 21 : Ligne 17 :




<br>




Ligne 45 : Ligne 40 :


Source: [https://www.google.com/search?q=autoencodeur&rlz=1C1AVFC_enCA829CA829&oq=autoencodeur&aqs=chrome..69i57&sourceid=chrome&ie=UTF-8 Wikipedia].
Source: [https://www.google.com/search?q=autoencodeur&rlz=1C1AVFC_enCA829CA829&oq=autoencodeur&aqs=chrome..69i57&sourceid=chrome&ie=UTF-8 Wikipedia].
[[Utilisateur:Patrickdrouin  | Source : Termino  ]]

Version du 12 juin 2019 à 09:29

Domaine

Intelligence artificielle
Apprentissage profond


Définition

Architecture de réseau de neurones artificiels capable d'apprendre sans supervision des représentations qui sont généralement de dimensions inférieures aux données d'entrée.

Note: les auto-encodeurs sont utilisés pour la réduction de la dimension des données, pour extraire des attributs (ou caractéristiques), pour générer de nouvelles données (modèles génératifs), ou pour débruiter des données.



Français

auto-encodeur n.m.

auto-associateur n.m.


Anglais

autoencoder



Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.

Source: Géron, Aurélien (2017). Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets, Paris, Dunod, 360 pages.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Wikipedia.


Source : Termino