« RMSProp » : différence entre les versions


(Page créée avec « == Domaine == catégorie:Démo Catégorie Démo Catégorie:Apprentissage profond Apprentissage profond == Définition == == Termes privilégiés ==... »)
 
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(21 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
==Définition==
[[catégorie:Démo]] Catégorie Démo
RMSprop est un algorithme d'optimisation qui accélère la descente de gradient, il est utilisé pour entraîner des modèles à base de réseaux de neurones profonds.
[[Catégorie:Apprentissage profond]] Apprentissage profond
== Définition ==


RMSProp pour « ''Root Mean Square Propagation'' » pourrait être traduit par RCEQM pour racine carrée de l'erreur quadratique moyenne.


==Français==


== Termes privilégiés ==
'''RMSprop ''' <small>acronyme </small>


   
   
==Anglais==
== Anglais ==


'''RMSProp'''
'''RMSProp'''


RMSProp is a gradient-based optimization algorithm. It is similar to Adagrad, but introduces an additional decay term to counteract Adagrad’s rapid decrease in learning rate.
 
• Neural Networks for Machine Learning Lecture 6a
==Sources==
• Stanford CS231n: Optimization Algorithms
 
• An overview of gradient descent optimization algorithms
[[Utilisateur:Claude COULOMBE | Source: Claude Coulombe, Datafranca.org]]
 
[[Category:Intelligence artificielle]]
[[Catégorie:Apprentissage automatique]]
 
[[Catégorie:Apprentissage profond]]
[[Category:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 12:34

Définition

RMSprop est un algorithme d'optimisation qui accélère la descente de gradient, il est utilisé pour entraîner des modèles à base de réseaux de neurones profonds.

RMSProp pour « Root Mean Square Propagation » pourrait être traduit par RCEQM pour racine carrée de l'erreur quadratique moyenne.

Français

RMSprop acronyme


Anglais

RMSProp


Sources

Source: Claude Coulombe, Datafranca.org