« RMSProp » : différence entre les versions


(nouveau terme)
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 19 : Ligne 19 :
RMSprop  
RMSprop  
</poll><
</poll><
/h3>  
</h3>  
 
<h3>Discussion:</h3> Pour le moment, le terme privilégié est «RMSprop» considéré comme un nom propre.<br>
<h3>Discussion:</h3> Pour le moment, le terme privilégié est «RMSprop» considéré comme un nom propre.<br>
   
   

Version du 14 avril 2019 à 21:59

Domaine


Intelligence artificielle
Apprentissage automatique
Algorithme d'optimisation
Apprentissage profond
Coulombe

Définition

RMSprop est un algorithme d'optimisation qui accélère la descente de gradient. RMSprop est utilisé pour entraîner des modèles à base de réseaux de neurones profonds.

Français

<poll> Choisissez parmi ces termes proposés : RCEQM RCEQMprop REQM REQMprop RMSprop </poll><

Discussion:

Pour le moment, le terme privilégié est «RMSprop» considéré comme un nom propre.

RMSProp pour «Root Mean Square error prop» pourrait être traduit par RCEQM pour racine carrée de l'erreur quadratique moyenne. Sous forme plus courte par REQM pour racine de l'erreur quadratique moyenne.

Anglais

RMSProp

RMSProp is a gradient-based optimization algorithm. It is similar to Adagrad, but introduces an additional decay term to counteract Adagrad’s rapid decrease in learning rate. • Neural Networks for Machine Learning Lecture 6a • Stanford CS231n: Optimization Algorithms • An overview of gradient descent optimization algorithms