« Unité de rectification linéaire » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
 
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Vocabulaire2]]
[[Category:Vocabulaire2]]
[[Category:Google2]]
[[Category:Google2]]
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:Apprentissage profond]]
[[Category:scotty2]]
[[Category:scotty2]]


Ligne 19 : Ligne 19 :
'''ReLU'''
'''ReLU'''


 
<small>
 
 
 
 
 


[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]

Version du 20 juin 2019 à 09:56


Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.

Français

unité de rectification linéaire n.f.

Anglais

Rectified Linear Unit

ReLU

Source: Google machine learning glossary