« Connexion saute-couche » : différence entre les versions


m (Remplacement de texte — « Termes privilégiés » par « Français »)
(Page redirigée vers Connexion résiduelle)
Balise : Nouvelle redirection
 
(22 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
#REDIRECTION [[Connexion résiduelle]]
== Domaine ==
[[Category:Vocabulary]]Vocabulary<br />
[[Category:Intelligence artificielle]]Intelligence artificielle<br />
 
 
<br />
 
== Définition ==
 
 
 
<br />
== Français ==
 
 
 
<br />
== Anglais ==
 
===  residual connection  ===
=== [[skip connection]] ===
 
<br/>
ResNet and its constituent residual blocks draw their names from the ‘residual’—the difference between the predicted and target values. The authors of ResNet used residual learning of the form H(x) = F(x) + x. Simply, this means that even in the case of no residual, F(x)=0, we would still preserve an identity mapping of the input, x. The resulting learned residual allows our network to theoretically do no worse (than without it).
<br/>
<br/>
<br/>
<br/>

Dernière version du 8 décembre 2022 à 10:52

Rediriger vers :