« Unité de rectification linéaire » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
Ligne 6 : | Ligne 5 : | ||
[[Category:Apprentissage profond]]Apprentissage profond<br /> | [[Category:Apprentissage profond]]Apprentissage profond<br /> | ||
[[Category:scotty2]] | [[Category:scotty2]] | ||
== Définition == | == Définition == | ||
Fonction d'activation dont les règles sont les suivantes : | Fonction d'activation dont les règles sont les suivantes : | ||
* Si l'entrée est négative ou égale à zéro, la sortie est zéro. | * Si l'entrée est négative ou égale à zéro, la sortie est zéro. | ||
* Si l'entrée est positive, la sortie est égale à l'entrée. | * Si l'entrée est positive, la sortie est égale à l'entrée. | ||
== Français == | |||
''' unité de rectification linéaire n.f.''' | |||
== Anglais == | |||
''' Rectified Linear Unit''' | |||
'''ReLU''' | |||
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | [https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | ||
Version du 15 juin 2019 à 23:05
Domaine
Apprentissage profond
Définition
Fonction d'activation dont les règles sont les suivantes :
- Si l'entrée est négative ou égale à zéro, la sortie est zéro.
- Si l'entrée est positive, la sortie est égale à l'entrée.
Français
unité de rectification linéaire n.f.
Anglais
Rectified Linear Unit
ReLU
Contributeurs: Claire Gorjux, Jacques Barolet, wiki, Robert Meloche