« Unité de rectification linéaire » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Aucun résumé des modifications
 
Ligne 6 : Ligne 6 :


== Français ==
== Français ==
''' unité de rectification linéaire '''
'''unité de rectification linéaire'''


== Anglais ==
== Anglais ==
''' Rectified Linear Unit'''
'''Rectified Linear Unit'''


'''ReLU'''
'''ReLU'''


==Sources==
==Sources==
 
[https://developers.google.com/machine-learning/glossary/  Source : Google machine learning glossary ]
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
 


[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Apprentissage profond]]
[[Category:Apprentissage profond]]

Dernière version du 14 avril 2024 à 19:32

Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.

Français

unité de rectification linéaire

Anglais

Rectified Linear Unit

ReLU

Sources

Source : Google machine learning glossary