« Unité de rectification linéaire » : différence entre les versions


(Page créée avec « __NOTOC__ == Domaine == Category:VocabulaireVocabulaire<br /> Category:GoogleGoogle<br /> Category:Apprentissage profondApprentissage profond<br /> <br /> ==... »)
 
Aucun résumé des modifications
Ligne 4 : Ligne 4 :
[[Category:Google]]Google<br />
[[Category:Google]]Google<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />
 
[[Category:scotty]]
<br />
<br />



Version du 21 octobre 2018 à 10:39

Domaine

Vocabulaire
Google
Apprentissage profond


Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.



Termes privilégiés

unité de rectification linéaire

ReLU


Anglais

Rectified Linear Unit

ReLU




Source: Google machine learning glossary