« RMSProp » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 12 : Ligne 12 :


== Français ==
== Français ==
<poll> Choisissez parmi ces termes proposés :
 
RCEQM
RCEQM
RCEQMprop
RCEQMprop
Ligne 18 : Ligne 18 :
REQMprop   
REQMprop   
RMSprop  
RMSprop  
</poll>
 




Ligne 32 : Ligne 32 :
'''RMSProp'''
'''RMSProp'''


RMSProp is a gradient-based optimization algorithm. It is similar to Adagrad, but introduces an additional decay term to counteract Adagrad’s rapid decrease in learning rate.
 
• Neural Networks for Machine Learning Lecture 6a
 
• Stanford CS231n: Optimization Algorithms
[[Utilisateur:Claude COULOMBE | source : Claude Coulombe, Datafranca.org]]
• An overview of gradient descent optimization algorithms

Version du 31 mai 2019 à 08:49

Domaine


Intelligence artificielle
Apprentissage automatique
Algorithme d'optimisation
Apprentissage profond
Coulombe

Définition

RMSprop est un algorithme d'optimisation qui accélère la descente de gradient. RMSprop est utilisé pour entraîner des modèles à base de réseaux de neurones profonds.

Français

RCEQM RCEQMprop REQM REQMprop RMSprop


Discussion:

Pour le moment, le terme privilégié est «RMSprop» considéré comme un nom propre.

RMSProp pour «Root Mean Square error prop» pourrait être traduit par RCEQM pour racine carrée de l'erreur quadratique moyenne. Sous forme plus courte par REQM pour racine de l'erreur quadratique moyenne.

Anglais

RMSProp


source : Claude Coulombe, Datafranca.org