Unité de rectification linéaire


Révision datée du 14 avril 2024 à 18:32 par ClaireGorjux (discussion | contributions)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.

Français

unité de rectification linéaire

Anglais

Rectified Linear Unit

ReLU

Sources

Source : Google machine learning glossary