« Unité de rectification linéaire » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
__NOTOC__
__NOTOC__
== Domaine ==
== Domaine ==
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Google]]Google<br />
[[Category:Vocabulaire2]]
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:Google2]]
[[Category:scotty]]
[[Category:Apprentissage profond2]]
[[Category:9]]
[[Category:scotty2]]
<br />
<br />



Version du 4 décembre 2018 à 17:39

Domaine


Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.



Termes privilégiés

unité de rectification linéaire n.f.


Anglais

Rectified Linear Unit

ReLU




Source: Google machine learning glossary