« Activation Function » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[category:Vocabulary]] Vocabulary | [[category:Vocabulary]] Vocabulary<br /> | ||
[[Catégorie:Apprentissage profond]] Apprentissage profond | [[Catégorie:Apprentissage profond]] Apprentissage profond | ||
== Définition == | == Définition == | ||
Version du 18 mars 2018 à 20:27
Domaine
Vocabulary
Apprentissage profond
Définition
Termes privilégiés
Anglais
Activation Function
To allow Neural Networks to learn complex decision boundaries, we apply a nonlinear activation function to some of its layers. Commonly used functions include sigmoid, tanh, ReLU (Rectified Linear Unit) and variants of these.
Contributeurs: wiki