« Connexion saute-couche » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
__NOTOC__ | |||
== Domaine == | == Domaine == | ||
[[Category:Vocabulary]]Vocabulary<br> | [[Category:Vocabulary]]Vocabulary<br> | ||
Ligne 13 : | Ligne 13 : | ||
<br /> | <br /> | ||
== Français == | == Français == | ||
<poll> | |||
Choisissez parmi ces termes proposés : | |||
connexion saute-couche | |||
saute-couche | |||
connexion saut de couches | |||
saut de couches | |||
connexion saute-mouton | |||
connexion résiduelle | |||
</poll> | |||
<h3>Discussion:</h3> | |||
Pour le moment, le terme privilégié est «connexion saute-couche». | |||
<br /> | <br /> | ||
Ligne 20 : | Ligne 29 : | ||
=== residual connection === | === residual connection === | ||
=== skip connection === | === [[skip connection]] === | ||
<br/> | |||
ResNet and its constituent residual blocks draw their names from the ‘residual’—the difference between the predicted and target values. The authors of ResNet used residual learning of the form H(x) = F(x) + x. Simply, this means that even in the case of no residual, F(x)=0, we would still preserve an identity mapping of the input, x. The resulting learned residual allows our network to theoretically do no worse (than without it). | |||
<br/> | <br/> | ||
<br/> | <br/> | ||
<br/> | <br/> | ||
<br/> | <br/> |
Version du 14 avril 2019 à 20:25
Domaine
Vocabulary
Intelligence artificielle
Apprentissage profond
Coulombe
Définition
Dans un réseau de neurones profond constitué de plusieurs couches de neurones, une connexion saute-couche est une connexion qui saute par dessus une ou plusieurs couches de neurones.
Français
<poll> Choisissez parmi ces termes proposés : connexion saute-couche saute-couche connexion saut de couches saut de couches connexion saute-mouton connexion résiduelle </poll>
Discussion:
Pour le moment, le terme privilégié est «connexion saute-couche».
Anglais
residual connection
skip connection
ResNet and its constituent residual blocks draw their names from the ‘residual’—the difference between the predicted and target values. The authors of ResNet used residual learning of the form H(x) = F(x) + x. Simply, this means that even in the case of no residual, F(x)=0, we would still preserve an identity mapping of the input, x. The resulting learned residual allows our network to theoretically do no worse (than without it).
Contributeurs: Claude Coulombe, Jacques Barolet, wiki