Balise : Éditeur de wikicode 2017 |
|
(19 versions intermédiaires par 3 utilisateurs non affichées) |
Ligne 1 : |
Ligne 1 : |
| __NOTOC__
| | #REDIRECTION [[Connexion résiduelle]] |
| == Domaine ==
| |
| [[Category:Vocabulary]]Vocabulary<br> | |
| [[Category:Intelligence artificielle]]Intelligence artificielle<br>
| |
| [[Catégorie:Apprentissage profond]] Apprentissage profond<br>
| |
| [[Category:Coulombe]]Coulombe<br>
| |
| | |
| <br />
| |
| | |
| == Définition ==
| |
| Dans un réseau de neurones profond constitué de plusieurs couches de neurones, une connexion saute-couche est une connexion qui saute par dessus une ou plusieurs couches de neurones.
| |
| | |
| <br />
| |
| == Français ==
| |
| <poll>
| |
| Choisissez parmi ces termes proposés :
| |
| connexion saute-couche
| |
| saute-couche
| |
| connexion saut de couches
| |
| saut de couches
| |
| connexion saute-mouton
| |
| connexion résiduelle
| |
| </poll>
| |
| <h3>Discussion:</h3>
| |
| Pour le moment, le terme privilégié est «connexion saute-couche».
| |
| | |
| <br />
| |
| == Anglais ==
| |
| | |
| === residual connection ===
| |
| === [[skip connection]] ===
| |
| | |
| <br/>
| |
| ResNet and its constituent residual blocks draw their names from the ‘residual’—the difference between the predicted and target values. The authors of ResNet used residual learning of the form H(x) = F(x) + x. Simply, this means that even in the case of no residual, F(x)=0, we would still preserve an identity mapping of the input, x. The resulting learned residual allows our network to theoretically do no worse (than without it).
| |
| <br/>
| |
| <br/>
| |
| <br/>
| |
| <br/>
| |