« RMSProp » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
mAucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 18 : | Ligne 18 : | ||
REQMprop | REQMprop | ||
RMSprop | RMSprop | ||
</poll> | </poll> | ||
</h3> | </h3> | ||
<h3>Discussion:</h3> Pour le moment, le terme privilégié est «RMSprop» considéré comme un nom propre.<br> | <h3>Discussion:</h3> | ||
Pour le moment, le terme privilégié est «RMSprop» considéré comme un nom propre.<br> | |||
RMSProp pour «Root Mean Square error prop» pourrait être traduit par RCEQM pour racine carrée de l'erreur quadratique moyenne. | RMSProp pour «Root Mean Square error prop» pourrait être traduit par RCEQM pour racine carrée de l'erreur quadratique moyenne. |
Version du 14 avril 2019 à 21:00
Domaine
Intelligence artificielle
Apprentissage automatique
Algorithme d'optimisation
Apprentissage profond
Coulombe
Définition
RMSprop est un algorithme d'optimisation qui accélère la descente de gradient. RMSprop est utilisé pour entraîner des modèles à base de réseaux de neurones profonds.
Français
<poll> Choisissez parmi ces termes proposés : RCEQM RCEQMprop REQM REQMprop RMSprop </poll>
Discussion:
Pour le moment, le terme privilégié est «RMSprop» considéré comme un nom propre.
RMSProp pour «Root Mean Square error prop» pourrait être traduit par RCEQM pour racine carrée de l'erreur quadratique moyenne. Sous forme plus courte par REQM pour racine de l'erreur quadratique moyenne.
Anglais
RMSProp
RMSProp is a gradient-based optimization algorithm. It is similar to Adagrad, but introduces an additional decay term to counteract Adagrad’s rapid decrease in learning rate. • Neural Networks for Machine Learning Lecture 6a • Stanford CS231n: Optimization Algorithms • An overview of gradient descent optimization algorithms
Contributeurs: Claude Coulombe, Jacques Barolet, wiki