« Connexion résiduelle » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[Category:Vocabulaire2]] | [[Category:Vocabulaire2]] | ||
Ligne 6 : | Ligne 5 : | ||
[[Category:Coulombe2]] | [[Category:Coulombe2]] | ||
[[Category:Termino 2019]] | [[Category:Termino 2019]] | ||
== Définition == | == Définition == | ||
Connexion supplémentaire ajoutée entre les différentes couches d'un réseau neuronal qui permettent d'éviter une ou plusieurs couches de traitement non linéaire. | Connexion supplémentaire ajoutée entre les différentes couches d'un réseau neuronal qui permettent d'éviter une ou plusieurs couches de traitement non linéaire. | ||
Note | Note | ||
Ligne 16 : | Ligne 13 : | ||
Permet d'ajouter une contribution (résidielle) des couches inférieures avant la transformation du gradient (diminution ou augmentation) par les couches suivantes qui sont ainsi « sautées ». | Permet d'ajouter une contribution (résidielle) des couches inférieures avant la transformation du gradient (diminution ou augmentation) par les couches suivantes qui sont ainsi « sautées ». | ||
== Français == | == Français == | ||
Ligne 24 : | Ligne 20 : | ||
'''saut de connexion''' | '''saut de connexion''' | ||
Source: Orhan, Emin et Xaq Pitkow (2018). Skip Connections Eliminate Singularities, Actes de la conférence ICLR 2018, 22 pages. | Source: Orhan, Emin et Xaq Pitkow (2018). Skip Connections Eliminate Singularities, Actes de la conférence ICLR 2018, 22 pages. | ||
Ligne 30 : | Ligne 28 : | ||
Source : Branchaud-Charron, Frédéric (2019). Estimation de complexité et localisation devéhicules à l’aide de l’apprentissage profond, mémoire de maîtrise, Université de Sherbrooke, 151 pages. | Source : Branchaud-Charron, Frédéric (2019). Estimation de complexité et localisation devéhicules à l’aide de l’apprentissage profond, mémoire de maîtrise, Université de Sherbrooke, 151 pages. | ||
Ligne 42 : | Ligne 38 : | ||
Note | Note | ||
Residual connections and skip connections are used interchangeably. | |||
These types of connections can skip multiple layers. | These types of connections can skip multiple layers. | ||
Version du 16 juin 2019 à 20:34
Domaine
Intelligence artificielle
Apprentissage profond
Définition
Connexion supplémentaire ajoutée entre les différentes couches d'un réseau neuronal qui permettent d'éviter une ou plusieurs couches de traitement non linéaire.
Note
Permet d'ajouter une contribution (résidielle) des couches inférieures avant la transformation du gradient (diminution ou augmentation) par les couches suivantes qui sont ainsi « sautées ».
Français
connexion saute-couche
connection résiduelle
saut de connexion
Source: Orhan, Emin et Xaq Pitkow (2018). Skip Connections Eliminate Singularities, Actes de la conférence ICLR 2018, 22 pages.
Source : Chabot, Florian (2017). Analyse fine 2D/3D de véhicules par réseaux de neurones profonds, thèse de doctorat, Université Clermont Auvergne, 171 pages.
Source : Branchaud-Charron, Frédéric (2019). Estimation de complexité et localisation devéhicules à l’aide de l’apprentissage profond, mémoire de maîtrise, Université de Sherbrooke, 151 pages.
Anglais
residual connection
skip connection'
Note
Residual connections and skip connections are used interchangeably.
These types of connections can skip multiple layers.
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki