« Connexion saute-couche » : différence entre les versions


(nouveau terme)
Balise : Éditeur de wikicode 2017
(Page redirigée vers Connexion résiduelle)
Balise : Nouvelle redirection
 
(21 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
#REDIRECTION [[Connexion résiduelle]]
== Domaine ==
[[Category:Vocabulary]]Vocabulary<br>
[[Category:Intelligence artificielle]]Intelligence artificielle<br>
[[Catégorie:Apprentissage profond]] Apprentissage profond<br>
[[Category:Coulombe]]Coulombe<br>
 
<br />
 
== Définition ==
Dans un réseau de neurones profond constitué de plusieurs couches de neurones, une connexion saute-couche est une connexion qui saute par dessus une ou plusieurs couches de neurones.
 
<br />
== Français ==
<poll>
Choisissez parmi ces termes proposés :
connexion saute-couche
saute-couche
connexion saut de couches
saut de couches
connexion saute-mouton
connexion résiduelle
</poll>
<h3>Discussion:</h3>
Pour le moment, le terme privilégié est «connexion saute-couche».
 
<br />
== Anglais ==
 
===  residual connection  ===
=== [[skip connection]] ===
 
<br/>
ResNet and its constituent residual blocks draw their names from the ‘residual’—the difference between the predicted and target values. The authors of ResNet used residual learning of the form H(x) = F(x) + x. Simply, this means that even in the case of no residual, F(x)=0, we would still preserve an identity mapping of the input, x. The resulting learned residual allows our network to theoretically do no worse (than without it).
<br/>
<br/>
<br/>
<br/>

Dernière version du 8 décembre 2022 à 10:52

Rediriger vers :