« Connexion saute-couche » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
mAucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 21 : | Ligne 21 : | ||
connexion saute-mouton | connexion saute-mouton | ||
connexion résiduelle | connexion résiduelle | ||
connexion court-circuit | |||
connexion de saut | |||
connexion sautante | |||
</poll> | </poll> | ||
<h3>Discussion:</h3> | <h3>Discussion:</h3> |
Version du 14 avril 2019 à 21:49
Domaine
Vocabulary
Intelligence artificielle
Apprentissage profond
Coulombe
Définition
Dans un réseau de neurones profond constitué de plusieurs couches de neurones, une connexion saute-couche est une connexion qui saute par dessus une ou plusieurs couches de neurones.
Français
<poll> Choisissez parmi ces termes proposés : connexion saute-couche saute-couche connexion saut de couches saut de couches connexion saute-mouton connexion résiduelle connexion court-circuit connexion de saut connexion sautante </poll>
Discussion:
Pour le moment, le terme privilégié est «connexion saute-couche».
Anglais
residual connection
skip connection
ResNet and its constituent residual blocks draw their names from the ‘residual’—the difference between the predicted and target values. The authors of ResNet used residual learning of the form H(x) = F(x) + x. Simply, this means that even in the case of no residual, F(x)=0, we would still preserve an identity mapping of the input, x. The resulting learned residual allows our network to theoretically do no worse (than without it).
Contributeurs: Claude Coulombe, Jacques Barolet, wiki