« Unité de rectification linéaire » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 4 : Ligne 4 :
[[Category:Vocabulaire2]]
[[Category:Vocabulaire2]]
[[Category:Google2]]
[[Category:Google2]]
[[Category:Apprentissage profond2]]
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:scotty2]]
[[Category:scotty2]]
<br />
<br />

Version du 3 juin 2019 à 17:03

Domaine

Apprentissage profond


Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.



Français

unité de rectification linéaire n.f.




Anglais

Rectified Linear Unit ReLU


Source: Google machine learning glossary

Publié : datafranca.org