« Connexion saute-couche » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
 
__NOTOC__
== Domaine ==
== Domaine ==
[[Category:Vocabulary]]Vocabulary<br>
[[Category:Vocabulary]]Vocabulary<br>
Ligne 13 : Ligne 13 :
<br />
<br />
== Français ==
== Français ==
 
<poll>
'''connexion saute-couche'''
Choisissez parmi ces termes proposés :
connexion saute-couche
saute-couche
connexion saut de couches
saut de couches
connexion saute-mouton
connexion résiduelle
</poll>
<h3>Discussion:</h3>
Pour le moment, le terme privilégié est «connexion saute-couche».


<br />
<br />
Ligne 20 : Ligne 29 :


===  residual connection  ===
===  residual connection  ===
=== skip connection ===
=== [[skip connection]] ===


<br/>
ResNet and its constituent residual blocks draw their names from the ‘residual’—the difference between the predicted and target values. The authors of ResNet used residual learning of the form H(x) = F(x) + x. Simply, this means that even in the case of no residual, F(x)=0, we would still preserve an identity mapping of the input, x. The resulting learned residual allows our network to theoretically do no worse (than without it).
<br/>
<br/>
<br/>
<br/>
<br/>
<br/>
<br/>
<br/>

Version du 14 avril 2019 à 21:25

Domaine

Vocabulary
Intelligence artificielle
Apprentissage profond
Coulombe


Définition

Dans un réseau de neurones profond constitué de plusieurs couches de neurones, une connexion saute-couche est une connexion qui saute par dessus une ou plusieurs couches de neurones.


Français

<poll> Choisissez parmi ces termes proposés : connexion saute-couche saute-couche connexion saut de couches saut de couches connexion saute-mouton connexion résiduelle </poll>

Discussion:

Pour le moment, le terme privilégié est «connexion saute-couche».


Anglais

residual connection

skip connection


ResNet and its constituent residual blocks draw their names from the ‘residual’—the difference between the predicted and target values. The authors of ResNet used residual learning of the form H(x) = F(x) + x. Simply, this means that even in the case of no residual, F(x)=0, we would still preserve an identity mapping of the input, x. The resulting learned residual allows our network to theoretically do no worse (than without it).