« Unité de rectification linéaire » : différence entre les versions
(Page créée avec « __NOTOC__ == Domaine == Category:VocabulaireVocabulaire<br /> Category:GoogleGoogle<br /> Category:Apprentissage profondApprentissage profond<br /> <br /> ==... ») |
Aucun résumé des modifications |
||
Ligne 4 : | Ligne 4 : | ||
[[Category:Google]]Google<br /> | [[Category:Google]]Google<br /> | ||
[[Category:Apprentissage profond]]Apprentissage profond<br /> | [[Category:Apprentissage profond]]Apprentissage profond<br /> | ||
[[Category:scotty]] | |||
<br /> | <br /> | ||
Version du 21 octobre 2018 à 09:39
Domaine
Vocabulaire
Google
Apprentissage profond
Définition
Fonction d'activation dont les règles sont les suivantes :
- Si l'entrée est négative ou égale à zéro, la sortie est zéro.
- Si l'entrée est positive, la sortie est égale à l'entrée.
Termes privilégiés
unité de rectification linéaire
ReLU
Anglais
Rectified Linear Unit
ReLU
Contributeurs: Claire Gorjux, Jacques Barolet, wiki, Robert Meloche