RMSProp


Révision datée du 14 avril 2019 à 21:59 par Claude COULOMBE (discussion | contributions) (nouveau terme)

Domaine


Intelligence artificielle
Apprentissage automatique
Algorithme d'optimisation
Apprentissage profond
Coulombe

Définition

RMSprop est un algorithme d'optimisation qui accélère la descente de gradient. RMSprop est utilisé pour entraîner des modèles à base de réseaux de neurones profonds.

Français

<poll> Choisissez parmi ces termes proposés : RCEQM RCEQMprop REQM REQMprop RMSprop </poll>< /h3>

Discussion:

Pour le moment, le terme privilégié est «RMSprop» considéré comme un nom propre.

RMSProp pour «Root Mean Square error prop» pourrait être traduit par RCEQM pour racine carrée de l'erreur quadratique moyenne. Sous forme plus courte par REQM pour racine de l'erreur quadratique moyenne.

Anglais

RMSProp

RMSProp is a gradient-based optimization algorithm. It is similar to Adagrad, but introduces an additional decay term to counteract Adagrad’s rapid decrease in learning rate. • Neural Networks for Machine Learning Lecture 6a • Stanford CS231n: Optimization Algorithms • An overview of gradient descent optimization algorithms