« Connexion saute-couche » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte — « Termes privilégiés » par « Français ») |
||
Ligne 12 : | Ligne 12 : | ||
<br /> | <br /> | ||
== | == Français == | ||
Version du 31 décembre 2018 à 14:52
Domaine
Vocabulary
Intelligence artificielle
Définition
Français
Anglais
residual connection
skip connection
ResNet and its constituent residual blocks draw their names from the ‘residual’—the difference between the predicted and target values. The authors of ResNet used residual learning of the form H(x) = F(x) + x. Simply, this means that even in the case of no residual, F(x)=0, we would still preserve an identity mapping of the input, x. The resulting learned residual allows our network to theoretically do no worse (than without it).
Contributeurs: Claude Coulombe, Jacques Barolet, wiki