« Unité de rectification linéaire » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(20 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
== Domaine ==
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Google]]Google<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:scotty]]
[[Category:9]]
<br />


== Définition ==
== Définition ==
Fonction d'activation dont les règles sont les suivantes :
Fonction d'activation dont les règles sont les suivantes :
*    Si l'entrée est négative ou égale à zéro, la sortie est zéro.
*    Si l'entrée est négative ou égale à zéro, la sortie est zéro.
*    Si l'entrée est positive, la sortie est égale à l'entrée.
*    Si l'entrée est positive, la sortie est égale à l'entrée.


== Français ==
'''unité de rectification linéaire'''


== Anglais ==
'''Rectified Linear Unit'''


<br />
'''ReLU'''
== Termes privilégiés ==
=== unité de rectification linéaire (ReLU)  n.f.===
 


==Sources==
[https://developers.google.com/machine-learning/glossary/  Source : Google machine learning glossary ]


 
[[Category:GRAND LEXIQUE FRANÇAIS]]
<br />
[[Category:Apprentissage profond]]
 
== Anglais ==
 
===  Rectified Linear Unit===
===ReLU===
<br/>
<br/>
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>
<br/>

Dernière version du 14 avril 2024 à 19:32

Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.

Français

unité de rectification linéaire

Anglais

Rectified Linear Unit

ReLU

Sources

Source : Google machine learning glossary