« Unité de rectification linéaire » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 4 : | Ligne 4 : | ||
[[Category:Vocabulaire2]] | [[Category:Vocabulaire2]] | ||
[[Category:Google2]] | [[Category:Google2]] | ||
[[Category:Apprentissage | [[Category:Apprentissage profond]]Apprentissage profond<br /> | ||
[[Category:scotty2]] | [[Category:scotty2]] | ||
<br /> | <br /> |
Version du 3 juin 2019 à 16:03
Domaine
Apprentissage profond
Définition
Fonction d'activation dont les règles sont les suivantes :
- Si l'entrée est négative ou égale à zéro, la sortie est zéro.
- Si l'entrée est positive, la sortie est égale à l'entrée.
Français
unité de rectification linéaire n.f.
Anglais
Rectified Linear Unit
ReLU
Source: Google machine learning glossary
Publié : datafranca.org
Contributeurs: Claire Gorjux, Jacques Barolet, wiki, Robert Meloche