« Unité de rectification linéaire » : différence entre les versions


m (Remplacement de texte — « <small> féminin </small> » par «  »)
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Ligne 13 : Ligne 13 :
'''ReLU'''
'''ReLU'''


<small>
==Sources==


[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]

Version du 28 janvier 2024 à 13:51

Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.

Français

unité de rectification linéaire

Anglais

Rectified Linear Unit

ReLU

Sources

Source: Google machine learning glossary