« Unité de rectification linéaire » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
__NOTOC__
== Domaine ==
== Domaine ==
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
Ligne 6 : Ligne 5 :
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:scotty2]]
[[Category:scotty2]]
<br />


== Définition ==
== Définition ==
Fonction d'activation dont les règles sont les suivantes :
Fonction d'activation dont les règles sont les suivantes :
*    Si l'entrée est négative ou égale à zéro, la sortie est zéro.
*    Si l'entrée est négative ou égale à zéro, la sortie est zéro.
*    Si l'entrée est positive, la sortie est égale à l'entrée.
*    Si l'entrée est positive, la sortie est égale à l'entrée.


== Français ==
''' unité de rectification linéaire  n.f.'''
== Anglais ==
'''  Rectified Linear Unit'''
'''ReLU'''




<br />
== Français ==
''' unité de rectification linéaire  n.f.'''








<br />


== Anglais ==


'''  Rectified Linear Unit'''
'''ReLU'''
<br/>
<br/>
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>[https://datafranca.org/lexique/unite-de-rectification-lineaire/        ''Publié : datafranca.org'' ]
<br/>
<br/>
<br/>

Version du 15 juin 2019 à 23:05

Domaine

Apprentissage profond

Définition

Fonction d'activation dont les règles sont les suivantes :

  • Si l'entrée est négative ou égale à zéro, la sortie est zéro.
  • Si l'entrée est positive, la sortie est égale à l'entrée.

Français

unité de rectification linéaire n.f.

Anglais

Rectified Linear Unit

ReLU





Source: Google machine learning glossary