« Connexion résiduelle » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
__NOTOC__
== Domaine ==
== Domaine ==
[[Category:Vocabulaire2]]
[[Category:Vocabulaire2]]
Ligne 6 : Ligne 5 :
[[Category:Coulombe2]]
[[Category:Coulombe2]]
[[Category:Termino 2019]]
[[Category:Termino 2019]]


== Définition ==
== Définition ==
Connexion supplémentaire ajoutée entre les différentes couches d'un réseau neuronal qui permettent d'éviter une ou plusieurs couches de traitement non linéaire.  
Connexion supplémentaire ajoutée entre les différentes couches d'un réseau neuronal qui permettent d'éviter une ou plusieurs couches de traitement non linéaire.  


Note
Note
Ligne 16 : Ligne 13 :
Permet d'ajouter une contribution (résidielle) des couches inférieures avant la transformation du gradient (diminution ou augmentation) par les couches suivantes qui sont ainsi « sautées ».
Permet d'ajouter une contribution (résidielle) des couches inférieures avant la transformation du gradient (diminution ou augmentation) par les couches suivantes qui sont ainsi « sautées ».


<br />


== Français ==
== Français ==
Ligne 24 : Ligne 20 :


'''saut de connexion'''
'''saut de connexion'''


Source: Orhan, Emin et Xaq Pitkow (2018). Skip Connections Eliminate Singularities, Actes de la conférence ICLR 2018, 22 pages.
Source: Orhan, Emin et Xaq Pitkow (2018). Skip Connections Eliminate Singularities, Actes de la conférence ICLR 2018, 22 pages.
Ligne 30 : Ligne 28 :


Source : Branchaud-Charron, Frédéric (2019). Estimation de complexité et localisation devéhicules à l’aide de l’apprentissage profond, mémoire de maîtrise, Université de Sherbrooke, 151 pages.
Source : Branchaud-Charron, Frédéric (2019). Estimation de complexité et localisation devéhicules à l’aide de l’apprentissage profond, mémoire de maîtrise, Université de Sherbrooke, 151 pages.




Ligne 42 : Ligne 38 :
Note
Note


<br/>Residual connections and skip connections are used interchangeably. <br />
Residual connections and skip connections are used interchangeably.  
 
These types of connections can skip multiple layers.
These types of connections can skip multiple layers.
<br/>

Version du 16 juin 2019 à 21:34

Domaine

Intelligence artificielle
Apprentissage profond

Définition

Connexion supplémentaire ajoutée entre les différentes couches d'un réseau neuronal qui permettent d'éviter une ou plusieurs couches de traitement non linéaire.

Note

Permet d'ajouter une contribution (résidielle) des couches inférieures avant la transformation du gradient (diminution ou augmentation) par les couches suivantes qui sont ainsi « sautées ».


Français

connexion saute-couche

connection résiduelle

saut de connexion


Source: Orhan, Emin et Xaq Pitkow (2018). Skip Connections Eliminate Singularities, Actes de la conférence ICLR 2018, 22 pages.

Source : Chabot, Florian (2017). Analyse fine 2D/3D de véhicules par réseaux de neurones profonds, thèse de doctorat, Université Clermont Auvergne, 171 pages.

Source : Branchaud-Charron, Frédéric (2019). Estimation de complexité et localisation devéhicules à l’aide de l’apprentissage profond, mémoire de maîtrise, Université de Sherbrooke, 151 pages.


Anglais

residual connection

skip connection'

Note

Residual connections and skip connections are used interchangeably.

These types of connections can skip multiple layers.