Unité de rectification linéaire


Révision datée du 1 février 2021 à 21:31 par Pitpitt (discussion | contributions) (Remplacement de texte — « <small> féminin </small> » par «  »)

Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.

Français

unité de rectification linéaire

Anglais

Rectified Linear Unit

ReLU

Source: Google machine learning glossary