« Unité de rectification linéaire » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications |
||
(3 versions intermédiaires par un autre utilisateur non affichées) | |||
Ligne 6 : | Ligne 6 : | ||
== Français == | == Français == | ||
''' unité de rectification linéaire ''' | '''unité de rectification linéaire''' | ||
== Anglais == | == Anglais == | ||
''' | '''Rectified Linear Unit''' | ||
'''ReLU''' | '''ReLU''' | ||
==Sources== | |||
[https://developers.google.com/machine-learning/glossary/ Source : Google machine learning glossary ] | |||
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] |
Dernière version du 14 avril 2024 à 18:32
Définition
Fonction d'activation dont les règles sont les suivantes :
- Si l'entrée est négative ou égale à zéro, la sortie est zéro.
- Si l'entrée est positive, la sortie est égale à l'entrée.
Français
unité de rectification linéaire
Anglais
Rectified Linear Unit
ReLU
Sources
Contributeurs: Claire Gorjux, Jacques Barolet, wiki, Robert Meloche