Unité de rectification linéaire


Domaine

Vocabulaire
Google
Apprentissage profond


Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.



Termes privilégiés

unité de rectification linéaire

ReLU


Anglais

Rectified Linear Unit

ReLU




Source: Google machine learning glossary