« Unité de rectification linéaire » : différence entre les versions


m (Remplacement de texte — « <!-- Google --> » par «  »)
m (Remplacement de texte — « <!-- Scotty2 --> » par «  »)
Ligne 4 : Ligne 4 :


[[Category:Apprentissage profond]]
[[Category:Apprentissage profond]]
<!-- Scotty2 -->
 


== Définition ==
== Définition ==

Version du 6 mai 2020 à 09:53


Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.

Français

unité de rectification linéaire nom fém.

Anglais

Rectified Linear Unit

ReLU

Source: Google machine learning glossary