« Unité de rectification linéaire » : différence entre les versions
m (Remplacement de texte — « Termes privilégiés » par « Français ») |
Aucun résumé des modifications |
||
Ligne 33 : | Ligne 33 : | ||
<br/> | <br/> | ||
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | [https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | ||
<br/> | |||
<br/>[https://datafranca.org/lexique/unite-de-rectification-lineaire/ ''Publié : datafranca.org'' ] | |||
<br/> | <br/> | ||
<br/> | <br/> | ||
<br/> | <br/> |
Version du 6 janvier 2019 à 10:38
Domaine
Définition
Fonction d'activation dont les règles sont les suivantes :
- Si l'entrée est négative ou égale à zéro, la sortie est zéro.
- Si l'entrée est positive, la sortie est égale à l'entrée.
Français
unité de rectification linéaire n.f.
Anglais
Rectified Linear Unit
ReLU
Source: Google machine learning glossary
Publié : datafranca.org
Contributeurs: Claire Gorjux, Jacques Barolet, wiki, Robert Meloche