« Activation Function » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
 
(Une version intermédiaire par le même utilisateur non affichée)
Ligne 1 : Ligne 1 :
== Domaine ==
#REDIRECTION [[ fonction d'activation ]]
[[category:Vocabulary]] Vocabulary<br />
[[Catégorie:ENGLISH]]
[[Catégorie:Apprentissage profond]] Apprentissage profond
 
== Définition ==
 
 
 
== Termes privilégiés ==
 
== Anglais ==
'''Activation Function'''
 
To allow Neural Networks to learn complex decision boundaries, we apply a nonlinear activation function to some of its layers. Commonly used functions include sigmoid, tanh, ReLU (Rectified Linear Unit) and variants of these.

Dernière version du 24 septembre 2019 à 12:37

Rediriger vers :

Contributeurs: wiki