« Activation Function » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
 
(2 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
#REDIRECTION [[ fonction d'activation ]]
[[category:Vocabulary]] Vocabulary
[[Catégorie:ENGLISH]]
[[Catégorie:Apprentissage profond]] Apprentissage profond
== Définition ==
 
 
 
== Termes privilégiés ==
 
== Anglais ==
'''Activation Function'''
 
To allow Neural Networks to learn complex decision boundaries, we apply a nonlinear activation function to some of its layers. Commonly used functions include sigmoid, tanh, ReLU (Rectified Linear Unit) and variants of these.

Dernière version du 24 septembre 2019 à 12:37

Rediriger vers :

Contributeurs: wiki