« Unité de rectification linéaire » : différence entre les versions
m (Remplacement de texte — « <small> féminin </small> » par « ») |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
Ligne 13 : | Ligne 13 : | ||
'''ReLU''' | '''ReLU''' | ||
==Sources== | |||
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | [https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] |
Version du 28 janvier 2024 à 13:51
Définition
Fonction d'activation dont les règles sont les suivantes :
- Si l'entrée est négative ou égale à zéro, la sortie est zéro.
- Si l'entrée est positive, la sortie est égale à l'entrée.
Français
unité de rectification linéaire
Anglais
Rectified Linear Unit
ReLU
Sources
Contributeurs: Claire Gorjux, Jacques Barolet, wiki, Robert Meloche