« Connexion résiduelle » : différence entre les versions


m (Ajout de Termino 2019)
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « Category:Termino 2019 » par «  »)
 
(32 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
==Définition==
== Domaine ==
Dans un réseau de neurones profond constitué de plusieurs couches de neurones, une connexion résiduelle (parfois appelée connexion identité ou connexion saute-couche) branche la sortie d’une couche moins profonde (en amont) pour l’ajouter à l’entrée d’une couche plus profonde du réseau (en aval) en sautant par dessus une ou plusieurs couches. Ceci permet d'éviter une ou plusieurs couches de traitement et une perte trop importante de gradient.
[[Category:Vocabulary]]<br>
[[Category:Intelligence artificielle]]Intelligence artificielle<br>
[[Catégorie:Apprentissage profond]] Apprentissage profond<br>
[[Category:Coulombe]]<br>
[[Category:Termino 2019]]


Voir: [[ResNet]]


<br />
==Compléments==
La connexion résiduelle permet d'ajouter une contribution (résiduelle) des couches inférieures avant la transformation du gradient (diminution ou augmentation) par les couches suivantes qui sont ainsi « sautées ».


== Définition ==
En anglais, « skip connection » et « residual connection » sont synonymes.
Connexion supplémentaire ajoutée entre les différentes couches d'un réseau neuronal qui permettent d'éviter une ou plusieurs couches de traitement non linéaire.  


==Français==
'''connexion résiduelle''' 


Note
'''connexion saute-couche'''


Permet d'ajouter une contribution (résidielle) des couches inférieures avant la transformation du gradient (diminution ou augmentation) par les couches suivantes qui sont ainsi « sautées ».
'''connexion identité'''


<br />
'''saut de connexion''' 


== Français ==
==Anglais==
'''connection résiduelle'''
'''residual connection'''


'''saut de connexion'''
'''skip connection'''


Source: Orhan, Emin et Xaq Pitkow (2018). Skip Connections Eliminate Singularities, Actes de la conférence ICLR 2018, 22 pages.
'''identity connection'''


Source : Chabot, Florian (2017). Analyse fine 2D/3D de véhicules par réseaux de neurones profonds, thèse de doctorat, Université Clermont Auvergne, 171 pages.
'''shortcut connection'''
==Sources==


Source : Branchaud-Charron, Frédéric (2019). Estimation de complexité et localisation devéhicules à l’aide de l’apprentissage profond, mémoire de maîtrise, Université de Sherbrooke, 151 pages.


Source: Orhan, Emin et Xaq Pitkow (2018). ''Skip Connections Eliminate Singularities'', Actes de la conférence ICLR 2018, 22 pages.


Source: Chabot, Florian (2017). ''Analyse fine 2D/3D de véhicules par réseaux de neurones profonds'', thèse de doctorat, Université Clermont Auvergne, 171 pages.


<poll>
Source: Branchaud-Charron, Frédéric (2019). ''Estimation de complexité et localisation de véhicules à l’aide de l’apprentissage profond, mémoire de maîtrise'', Université de Sherbrooke, 151 pages.
Choisissez parmi ces termes proposés :
connexion saute-couche
saute-couche
connexion saut de couches
saut de couches
connexion saute-mouton
connexion résiduelle
connexion court-circuit
connexion de saut
connexion sautante
</poll>
<h3>Discussion:</h3>
Pour le moment, le terme privilégié est «connexion saute-couche».
<br/>
 
<br />
 
== Anglais ==
'''residual connection'''
 
'''skip connection''''


Note
[[Utilisateur:Patrickdrouin  | Source: Termino]]


<br/>Residual connections and skip connections are used interchangeably. <br />
[[Category:Intelligence artificielle]]
These types of connections can skip multiple layers.
[[Catégorie:Apprentissage profond]]
<br/>
<br/>


<br/>
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
<br/>
<br/>

Dernière version du 11 octobre 2024 à 08:31

Définition

Dans un réseau de neurones profond constitué de plusieurs couches de neurones, une connexion résiduelle (parfois appelée connexion identité ou connexion saute-couche) branche la sortie d’une couche moins profonde (en amont) pour l’ajouter à l’entrée d’une couche plus profonde du réseau (en aval) en sautant par dessus une ou plusieurs couches. Ceci permet d'éviter une ou plusieurs couches de traitement et une perte trop importante de gradient.

Voir: ResNet

Compléments

La connexion résiduelle permet d'ajouter une contribution (résiduelle) des couches inférieures avant la transformation du gradient (diminution ou augmentation) par les couches suivantes qui sont ainsi « sautées ».

En anglais, « skip connection » et « residual connection » sont synonymes.

Français

connexion résiduelle

connexion saute-couche

connexion identité

saut de connexion

Anglais

residual connection

skip connection

identity connection

shortcut connection

Sources

Source: Orhan, Emin et Xaq Pitkow (2018). Skip Connections Eliminate Singularities, Actes de la conférence ICLR 2018, 22 pages.

Source: Chabot, Florian (2017). Analyse fine 2D/3D de véhicules par réseaux de neurones profonds, thèse de doctorat, Université Clermont Auvergne, 171 pages.

Source: Branchaud-Charron, Frédéric (2019). Estimation de complexité et localisation de véhicules à l’aide de l’apprentissage profond, mémoire de maîtrise, Université de Sherbrooke, 151 pages.

Source: Termino