« Unité de rectification linéaire » : différence entre les versions


m (Remplacement de texte — « Category:Vocabulaire2 » par « <!-- vocabulaire2 --> »)
m (Remplacement de texte — « Category:scotty2 » par « <!-- Scotty2 --> »)
Ligne 4 : Ligne 4 :
[[Category:Google2]]
[[Category:Google2]]
[[Category:Apprentissage profond]]
[[Category:Apprentissage profond]]
[[Category:scotty2]]
<!-- Scotty2 -->


== Définition ==
== Définition ==

Version du 2 juillet 2019 à 13:00


Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.

Français

unité de rectification linéaire n.f.

Anglais

Rectified Linear Unit

ReLU

Source: Google machine learning glossary