« Unité linéaire rectifiée » : différence entre les versions
mAucun résumé des modifications Balise : Éditeur de wikicode 2017 |
mAucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | ==Domaine== | ||
[[Category:Vocabulary]]</br> | [[Category:Vocabulary]]</br> | ||
[[Category:Intelligence artificielle]]Intelligence artificielle</br> | [[Category:Intelligence artificielle]]Intelligence artificielle</br> | ||
[[Catégorie:Apprentissage automatique]] Apprentissage automatique</br> | [[Catégorie:Apprentissage automatique]]Apprentissage automatique</br> | ||
[[Catégorie:Apprentissage profond]] Apprentissage profond</br> | [[Catégorie:Apprentissage profond]]Apprentissage profond</br> | ||
[[Category:Coulombe]]Coulombe</br> | [[Category:Coulombe]]Coulombe</br> | ||
[[Catégorie:Scotty]]</br> | [[Catégorie:Scotty]]</br> | ||
== Définition == | ==Définition== | ||
ULR abréviation pour unité(s) linéaire(s) rectifiée(s). Les ULR sont utilisées comme fonctions d'activation dans les réseaux de neurones profonds. | ULR abréviation pour unité(s) linéaire(s) rectifiée(s). Les ULR sont utilisées comme fonctions d'activation dans les réseaux de neurones profonds. | ||
== Français == | ==Français== | ||
ULR pour unité linéaire rectifiée | ULR pour unité linéaire rectifiée | ||
Discussion:< | Discussion:<br> | ||
La traduction / adaptation des abréviations et acronymes pose des défis particuliers dont il faut discuter. | La traduction / adaptation des abréviations et acronymes pose des défis particuliers dont il faut discuter. | ||
== Anglais == | ==Anglais== | ||
ReLU | ReLU | ||
Version du 14 avril 2019 à 19:15
Domaine
Intelligence artificielle
Apprentissage automatique
Apprentissage profond
Coulombe
Définition
ULR abréviation pour unité(s) linéaire(s) rectifiée(s). Les ULR sont utilisées comme fonctions d'activation dans les réseaux de neurones profonds.
Français
ULR pour unité linéaire rectifiée
Discussion:
La traduction / adaptation des abréviations et acronymes pose des défis particuliers dont il faut discuter.
Anglais
ReLU
Short for Rectified Linear Unit(s). ReLUs are often used as activation functions in Deep Neural Networks. They are defined by f(x) = max(0, x). The advantages of ReLUs over functions like tanhinclude that they tend to be sparse (their activation easily be set to 0), and that they suffer less from the vanishing gradient problem. ReLUs are the most commonly used activation function in Convolutional Neural Networks. There exist several variations of ReLUs, such as Leaky ReLUs, Parametric ReLU (PReLU) or a smoother softplusapproximation.
• Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification
• Rectifier Nonlinearities Improve Neural Network Acoustic Models
• Rectified Linear Units Improve Restricted Boltzmann Machines
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki