« Unité de rectification linéaire » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 18 : Ligne 18 :
<br />
<br />
== Termes privilégiés ==
== Termes privilégiés ==
=== unité de rectification linéaire   n.f.===
=== unité de rectification linéaire (ReLU)  n.f.===





Version du 4 décembre 2018 à 16:34

Domaine

Vocabulaire
Google
Apprentissage profond


Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.



Termes privilégiés

unité de rectification linéaire (ReLU) n.f.


Anglais

Rectified Linear Unit

ReLU




Source: Google machine learning glossary