« Apprentissage profond » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵↵==Sources== » par «  ==Sources== »)
 
(18 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
==Définition==


Geoffrey Hinton, de l’Université de Toronto, a inventé le terme « deep learning » en 2006. Ensuite, les médias et les réseaux sociaux s’en sont emparés. L’apprentissage profond est en quelque sorte la nouvelle image de marque des réseaux de neurones.
Geoffrey Hinton, de l’Université de Toronto, a inventé le terme « deep learning » en 2006. Ensuite, les médias et les réseaux sociaux s’en sont emparé. L’apprentissage profond est en quelque sorte la nouvelle image de marque des réseaux de neurones.


L’apprentissage profond fait partie d’une famille de méthodes d’apprentissage automatique basée sur des réseaux de neurones artificiels qui comportent plusieurs couches cachées de neurones.  
L’apprentissage profond fait partie d’une famille de méthodes d’apprentissage automatique fondée sur des réseaux de neurones artificiels qui comportent plusieurs couches cachées de neurones. L’apprentissage profond peut être '''supervisé''', '''semi-supervisé''', '''non supervisé''' ou '''par renforcement'''.


Des architectures d’apprentissage profond, telles que les '''[https://datafranca.org/wiki/R%C3%A9seau_de_neurones_profond réseaux de neurones profonds,]''' les '''[https://datafranca.org/wiki/R%C3%A9seau_de_neurones_r%C3%A9currents réseaux récurrents,]''' les '''[https://datafranca.org/wiki/R%C3%A9seau_de_neurones_convolutifs réseaux convolutifs]''' issus des travaux de Yann Lecun, et les [https://datafranca.org/wiki/R%C3%A9seau_autoattentif réseaux auto-attentifs] souvent appelés « transformers », ont été appliquées à divers domaines tels que la vision par ordinateur, la reconnaissance de la parole, le traitement automatique de la langue, la reconnaissance audio, le filtrage des réseaux sociaux, la bioinformatique, la synthèse de médicaments, l’analyse d’images médicales et l’inspection des matériaux. Dans beaucoup de ces domaines, l'apprentissage profond a donné des résultats comparables, voire parfois supérieurs, à ceux d’experts humains.
Des architectures d’apprentissage profond, telles que :


Par exemple, l’apprentissage profond a permis à un ordinateur de vaincre un champion mondial du jeu de Go, et d’atteindre une qualité qui s’approche de celle de l’humain dans la traduction de textes.
* les [[réseau de neurones profond|réseaux de neurones profonds;]]
* les [[réseau de neurones récurrents|réseaux récurrents;]]
* les [[réseau de neurones convolutifs|réseaux convolutifs]] issus des travaux de Yann LeCun;
* les [[réseau autoattentif|réseaux autoattentifs]] souvent appelés « ''transformers'' ».
 
ont été appliquées à divers domaines tels que :
 
* la [[vision artificielle]];
* le [[traitement automatique de la langue|traitement automatique de la langue]];
* le [[dialogue personne-machine]];
* la [[reconnaissance automatique de la parole|reconnaissance de la parole]];
* la [[reconnaissance audio]];
* la [[génération automatique de textes|génération de textes]];
* la [[génération texte-à-image|génération d'images]];
* le filtrage des réseaux sociaux;
* la bio-informatique;
* la synthèse de médicaments;
* l’analyse d’images médicales;
* l’inspection des matériaux.
 
Dans beaucoup de ces domaines, l’apprentissage profond a donné des résultats comparables, voire parfois supérieurs, à ceux d’experts humains.
 
Par exemple, l’apprentissage profond a permis à un ordinateur de vaincre un champion mondial du jeu de Go, et d’atteindre dans la traduction de textes une qualité qui s’approche de celle de l’humain.
 
==Compléments==
 
L’organisation typique d’un réseau de neurones, aussi appelée architecture multicouche, consiste en une superposition de couches de neurones (neuron layers). Le réseau à une seule couche cachée était la seule architecture de réseau de neurones que l’on savait entraîner efficacement jusque vers la fin des années 1990.
 
Le nombre de couches cachées définit la notion de profondeur d’un réseau de neurones. Techniquement, un  réseau de neurones profond  est un réseau qui comporte plus d’une couche cachée de neurones. C’est-à-dire, deux couches cachées ou davantage.
<hr/>
Un terme plus exact pour désigner l’apprentissage profond serait « [[apprentissage de représentations]] », ou encore « apprentissage hiérarchique ». Rappelons que [[représentation]] est un terme générique qui désigne l’état d’une réalité (une connaissance) au moyen de données. Enfin, on rencontre parfois l'expression « [[apprentissage d'attributs|apprentissage des attributs]] » pour désigner l'apprentissage profond.
 
D’un point de vue pratique, une couche de neurones reçoit une représentation en entrée qu’elle transforme pour produire une représentation en sortie.
 
Les représentations successives sont de complexité grandissante au fur et à mesure que l’on ajoute des couches au réseau. Par exemple, en vision artificielle, les premières couches apprennent à reconnaître des concepts visuels de base comme des points, des lignes, des contours, des taches, des textures. Les couches suivantes vont combiner ces concepts pour former des figures géométriques à la base de représentations plus complexes comme des yeux, des nez, des bouches pour finir en dernière couche avec la reconnaissance d’un visage.
<hr/>
<hr/>
Complément:
Les dernières avancées technologiques, en termes d’architecture de réseau profond, reposent sur le mécanisme d’attention, plus précisément l’auto-attention, pour remplacer à la fois la récurrence et les convolutions. Plus connus sous le vocable « Transformers » emprunté au cinéma d’animation des années 80, les réseaux auto-attentifs sont issus des travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio de l’Université de Montréal qui ont défini un premier mécanisme d’attention utilisé en traduction automatique neuronale.


L'apprentissage profond peut être '''supervisé''', '''semi-supervisé''', '''non supervisé''' ou '''par renforcement'''.  
Pour leurs travaux sur l’apprentissage profond, les chercheurs Geoffrey Hinton, Yann LeCun et Yoshua Bengio ont reçu le Prix Turing en 2018.


==Français==
==Français==
'''apprentissage profond'''  
'''apprentissage profond'''  


'''apprentissage en profondeur '''   
'''apprentissage de représentations''' 
 
'''apprentissage en profondeur'''   


==Anglais==
==Anglais==
Ligne 25 : Ligne 61 :
'''deep structured learning'''
'''deep structured learning'''


 
'''learning representations'''
<small>
==Sources==


Source: [https://www.latribune.fr/opinions/tribunes/intelligence-artificielle-les-defis-de-l-apprentissage-profond-815088.html LaTribune.fr]
Source: [https://www.latribune.fr/opinions/tribunes/intelligence-artificielle-les-defis-de-l-apprentissage-profond-815088.html LaTribune.fr]
Ligne 32 : Ligne 68 :
Source: [https://openclassrooms.com/fr/courses/4011851-initiez-vous-au-machine-learning/4011858-identifez-les-differentes-etapes-de-modelisation OpenClassroom]
Source: [https://openclassrooms.com/fr/courses/4011851-initiez-vous-au-machine-learning/4011858-identifez-les-differentes-etapes-de-modelisation OpenClassroom]


* [https://fr.wikipedia.org/wiki/Apprentissage_profond Source: Wikipedia, ''Apprentissage profond''.]
*[https://fr.wikipedia.org/wiki/Apprentissage_profond Source: Wikipedia, ''Apprentissage profond''.]


* [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=APPRENTISSAGE+PROFOND&index=alt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus]
*[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=APPRENTISSAGE+PROFOND&index=alt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus]


Note :  apprentissage profond est une désignation publiée au Journal officiel de la République française le 9 décembre 2018.


Note :  apprentissage profond est une désignation publiée au Journal officiel de la République française le 9 décembre 2018.
</small><br>


</small><br> <div style="border:2px solid #336699; background: #f6f6f6; padding: 1em; margin-bottom:1em; width: 90%;"><html><a href="https://datafranca.org/wiki/Cat%C3%A9gorie:101"><img src="https://datafranca.org/images/icone-101-mots.png" width="250"></a></html>
{{Modèle:101}}
===Compléments vidéos===
* [https://www.youtube.com/watch?v=XUFLq6dKQok  FORMATION DEEP LEARNING COMPLETE (2021)]
* [https://www.youtube.com/watch?v=0oyCUWLL_fU  Practical Deep Learning for Coders ]
* [https://www.youtube.com/watch?v=SgC6AZss478  A friendly introduction to deep reinforcement learning]
* [https://www.youtube.com/watch?v=bDAyquF-BrQ  What is Deep Learning and What is it Used For?]
* [https://www.youtube.com/watch?v=njKP3FqW3Sk  MIT 6.S191 (2020): Introduction to Deep Learning ]
* [https://www.youtube.com/watch?v=0VH1Lim8gL8  Deep Learning State of the Art]
* [https://www.youtube.com/watch?v=g8_si9H4wA8  AI 101: What is Deep Learning?]
* [https://www.youtube.com/watch?v=6M5VXKLf4D4  Deep Learning In 5 Minutes]
* [https://www.youtube.com/watch?v=VyWAvY2CF9c  Deep Learning Crash Course for Beginners]
* [https://www.youtube.com/watch?v=oJNHXPs0XDk  Neural Network Architectures & Deep Learning]


<br></div><br><br>
{{Modèle:GDT}}


[[Catégorie:GDT]]
[[Catégorie:GDT]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]
[[Catégorie:101]]

Dernière version du 30 août 2024 à 13:57

Définition

Geoffrey Hinton, de l’Université de Toronto, a inventé le terme « deep learning » en 2006. Ensuite, les médias et les réseaux sociaux s’en sont emparé. L’apprentissage profond est en quelque sorte la nouvelle image de marque des réseaux de neurones.

L’apprentissage profond fait partie d’une famille de méthodes d’apprentissage automatique fondée sur des réseaux de neurones artificiels qui comportent plusieurs couches cachées de neurones. L’apprentissage profond peut être supervisé, semi-supervisé, non supervisé ou par renforcement.

Des architectures d’apprentissage profond, telles que :

ont été appliquées à divers domaines tels que :

Dans beaucoup de ces domaines, l’apprentissage profond a donné des résultats comparables, voire parfois supérieurs, à ceux d’experts humains.

Par exemple, l’apprentissage profond a permis à un ordinateur de vaincre un champion mondial du jeu de Go, et d’atteindre dans la traduction de textes une qualité qui s’approche de celle de l’humain.

Compléments

L’organisation typique d’un réseau de neurones, aussi appelée architecture multicouche, consiste en une superposition de couches de neurones (neuron layers). Le réseau à une seule couche cachée était la seule architecture de réseau de neurones que l’on savait entraîner efficacement jusque vers la fin des années 1990.

Le nombre de couches cachées définit la notion de profondeur d’un réseau de neurones. Techniquement, un réseau de neurones profond est un réseau qui comporte plus d’une couche cachée de neurones. C’est-à-dire, deux couches cachées ou davantage.


Un terme plus exact pour désigner l’apprentissage profond serait « apprentissage de représentations », ou encore « apprentissage hiérarchique ». Rappelons que représentation est un terme générique qui désigne l’état d’une réalité (une connaissance) au moyen de données. Enfin, on rencontre parfois l'expression « apprentissage des attributs » pour désigner l'apprentissage profond.

D’un point de vue pratique, une couche de neurones reçoit une représentation en entrée qu’elle transforme pour produire une représentation en sortie.

Les représentations successives sont de complexité grandissante au fur et à mesure que l’on ajoute des couches au réseau. Par exemple, en vision artificielle, les premières couches apprennent à reconnaître des concepts visuels de base comme des points, des lignes, des contours, des taches, des textures. Les couches suivantes vont combiner ces concepts pour former des figures géométriques à la base de représentations plus complexes comme des yeux, des nez, des bouches pour finir en dernière couche avec la reconnaissance d’un visage.


Les dernières avancées technologiques, en termes d’architecture de réseau profond, reposent sur le mécanisme d’attention, plus précisément l’auto-attention, pour remplacer à la fois la récurrence et les convolutions. Plus connus sous le vocable « Transformers » emprunté au cinéma d’animation des années 80, les réseaux auto-attentifs sont issus des travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio de l’Université de Montréal qui ont défini un premier mécanisme d’attention utilisé en traduction automatique neuronale.

Pour leurs travaux sur l’apprentissage profond, les chercheurs Geoffrey Hinton, Yann LeCun et Yoshua Bengio ont reçu le Prix Turing en 2018.

Français

apprentissage profond

apprentissage de représentations

apprentissage en profondeur

Anglais

deep learning

deep machine learning

deep structured learning

learning representations

Sources

Source: LaTribune.fr

Source: OpenClassroom

Note : apprentissage profond est une désignation publiée au Journal officiel de la République française le 9 décembre 2018.



101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »