« Activation Function » : différence entre les versions
(Page créée avec « == Domaine == catégorie:Démo Catégorie Démo Catégorie:Apprentissage profond Apprentissage profond == Définition == == Termes privilégiés ==... ») |
Aucun résumé des modifications |
||
Ligne 16 : | Ligne 16 : | ||
== Anglais == | == Anglais == | ||
Activation Function | '''Activation Function''' | ||
To allow Neural Networks to learn complex decision boundaries, we apply a nonlinear activation function to some of its layers. Commonly used functions include sigmoid, tanh, ReLU (Rectified Linear Unit) and variants of these. | To allow Neural Networks to learn complex decision boundaries, we apply a nonlinear activation function to some of its layers. Commonly used functions include sigmoid, tanh, ReLU (Rectified Linear Unit) and variants of these. |
Version du 26 février 2018 à 19:19
Domaine
Catégorie Démo Apprentissage profond
Définition
Termes privilégiés
Anglais
Activation Function
To allow Neural Networks to learn complex decision boundaries, we apply a nonlinear activation function to some of its layers. Commonly used functions include sigmoid, tanh, ReLU (Rectified Linear Unit) and variants of these.
Contributeurs: wiki