« Connexion résiduelle » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
[[Category:Vocabulaire2]]
[[Category:Vocabulaire2]]
[[Category:Intelligence artificielle]]Intelligence artificielle<br>
[[Category:Intelligence artificielle]]
[[Catégorie:Apprentissage profond]] Apprentissage profond<br>
[[Catégorie:Apprentissage profond]]
[[Category:Coulombe2]]
[[Category:Coulombe2]]
[[Category:Termino 2019]]
[[Category:Termino 2019]]
Ligne 9 : Ligne 8 :
Connexion supplémentaire ajoutée entre les différentes couches d'un réseau neuronal qui permettent d'éviter une ou plusieurs couches de traitement non linéaire.  
Connexion supplémentaire ajoutée entre les différentes couches d'un réseau neuronal qui permettent d'éviter une ou plusieurs couches de traitement non linéaire.  


Note
Note :
 
Permet d'ajouter une contribution (résidielle) des couches inférieures avant la transformation du gradient (diminution ou augmentation) par les couches suivantes qui sont ainsi « sautées ».
Permet d'ajouter une contribution (résidielle) des couches inférieures avant la transformation du gradient (diminution ou augmentation) par les couches suivantes qui sont ainsi « sautées ».


== Français ==
== Français ==
Ligne 20 : Ligne 17 :


'''saut de connexion'''
'''saut de connexion'''
== Anglais ==
'''residual connection'''
'''skip connection''''




<small>


Source: Orhan, Emin et Xaq Pitkow (2018). Skip Connections Eliminate Singularities, Actes de la conférence ICLR 2018, 22 pages.
Source: Orhan, Emin et Xaq Pitkow (2018). Skip Connections Eliminate Singularities, Actes de la conférence ICLR 2018, 22 pages.
Ligne 29 : Ligne 32 :
Source : Branchaud-Charron, Frédéric (2019). Estimation de complexité et localisation devéhicules à l’aide de l’apprentissage profond, mémoire de maîtrise, Université de Sherbrooke, 151 pages.
Source : Branchaud-Charron, Frédéric (2019). Estimation de complexité et localisation devéhicules à l’aide de l’apprentissage profond, mémoire de maîtrise, Université de Sherbrooke, 151 pages.


 
[[Utilisateur:Patrickdrouin  | Source : Termino  ]]
 
== Anglais ==
'''residual connection'''
 
'''skip connection''''
 
Note
 
Residual connections and skip connections are used interchangeably.
 
These types of connections can skip multiple layers.

Version du 17 juin 2019 à 15:28


Définition

Connexion supplémentaire ajoutée entre les différentes couches d'un réseau neuronal qui permettent d'éviter une ou plusieurs couches de traitement non linéaire.

Note : Permet d'ajouter une contribution (résidielle) des couches inférieures avant la transformation du gradient (diminution ou augmentation) par les couches suivantes qui sont ainsi « sautées ».

Français

connexion saute-couche

connection résiduelle

saut de connexion

Anglais

residual connection

skip connection'


Source: Orhan, Emin et Xaq Pitkow (2018). Skip Connections Eliminate Singularities, Actes de la conférence ICLR 2018, 22 pages.

Source : Chabot, Florian (2017). Analyse fine 2D/3D de véhicules par réseaux de neurones profonds, thèse de doctorat, Université Clermont Auvergne, 171 pages.

Source : Branchaud-Charron, Frédéric (2019). Estimation de complexité et localisation devéhicules à l’aide de l’apprentissage profond, mémoire de maîtrise, Université de Sherbrooke, 151 pages.

Source : Termino