« Activation Function » : différence entre les versions


Aucun résumé des modifications
(Page redirigée vers Fonction d'activation)
Ligne 1 : Ligne 1 :
== Domaine ==
#REDIRECTION [[ fonction d'activation ]]
[[category:Vocabulary]] Vocabulary<br />
[[Catégorie:Apprentissage profond]] Apprentissage profond
 
== Définition ==
 
 
 
== Termes privilégiés ==
 
== Anglais ==
'''Activation Function'''
 
To allow Neural Networks to learn complex decision boundaries, we apply a nonlinear activation function to some of its layers. Commonly used functions include sigmoid, tanh, ReLU (Rectified Linear Unit) and variants of these.

Version du 6 mai 2018 à 16:36

Rediriger vers :

Contributeurs: wiki