« Connexion saute-couche » : différence entre les versions


m (Remplacement de texte — « Termes privilégiés » par « Français »)
(nouveau terme)
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
__NOTOC__
__NOTOC__
== Domaine ==
== Domaine ==
[[Category:Vocabulary]]Vocabulary<br />
[[Category:Vocabulary]]Vocabulary<br>
[[Category:Intelligence artificielle]]Intelligence artificielle<br />
[[Category:Intelligence artificielle]]Intelligence artificielle<br>
 
[[Catégorie:Apprentissage profond]] Apprentissage profond<br>
[[Category:Coulombe]]Coulombe<br>


<br />
<br />


== Définition ==
== Définition ==
 
Dans un réseau de neurones profond constitué de plusieurs couches de neurones, une connexion saute-couche est une connexion qui saute par dessus une ou plusieurs couches de neurones.
 


<br />
<br />
== Français ==
== Français ==
 
<poll>
 
Choisissez parmi ces termes proposés :
connexion saute-couche
saute-couche
connexion saut de couches
saut de couches
connexion saute-mouton
connexion résiduelle
</poll>
<h3>Discussion:</h3>
Pour le moment, le terme privilégié est «connexion saute-couche».


<br />
<br />

Version du 14 avril 2019 à 20:20

Domaine

Vocabulary
Intelligence artificielle
Apprentissage profond
Coulombe


Définition

Dans un réseau de neurones profond constitué de plusieurs couches de neurones, une connexion saute-couche est une connexion qui saute par dessus une ou plusieurs couches de neurones.


Français

<poll> Choisissez parmi ces termes proposés : connexion saute-couche saute-couche connexion saut de couches saut de couches connexion saute-mouton connexion résiduelle </poll>

Discussion:

Pour le moment, le terme privilégié est «connexion saute-couche».


Anglais

residual connection

skip connection


ResNet and its constituent residual blocks draw their names from the ‘residual’—the difference between the predicted and target values. The authors of ResNet used residual learning of the form H(x) = F(x) + x. Simply, this means that even in the case of no residual, F(x)=0, we would still preserve an identity mapping of the input, x. The resulting learned residual allows our network to theoretically do no worse (than without it).