« Apprentissage par différence temporelle » : différence entre les versions


m (Remplacement de texte : « ↵↵==Sources== » par «  ==Sources== »)
 
(40 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
[[Category:Vocabulary]]
[[Category:Apprentissage par renforcement]]Apprentissage par renforcement<br/>
[[Category:Coulombe]]Coulombe<br/>
[[Category:scotty]]<br/>
== Définition ==
== Définition ==
En apprentissage par renforcement, l’algorithme d’apprentissage par différence temporelle utilise un mécanisme d’estimation temporelle pour la prédiction du temps d’arrivée d’une récompense. L’algorithme d’apprentissage par différence temporelle s'inspire d'études d’apprentissage chez les animaux.
L’'''[[algorithme]]''' d’apprentissage par différence temporelle est un apprentissage par renforcement utilisant un mécanisme d’estimation temporelle pour la prédiction du temps d’arrivée d’une récompense. L’algorithme d’apprentissage par différence temporelle s'inspire d'études d’apprentissage chez les animaux.
 


== Français ==
== Français ==
apprentissage par différence temporelle
'''apprentissage par différence temporelle''' 


'''méthode TD active''' 


== Anglais ==
'''temporal difference learning'''


== Anglais ==
'''TD learning'''
==Sources==
 
[http://theses.univ-lyon2.fr/documents/getpart.php?id=lyon2.2005.blanc_jm&part=92195 Source : U de Lyon]


=== Temporal difference learning ===
[http://planiart.usherbrooke.ca/cours/ift615/ift615-13-apprentissage-renforcement.pdf Source : U de Sherbrooke]


Temporal difference (TD) learning is a prediction-based machine learning method. It has primarily been used for the reinforcement learning problem, and is said to be "a combination of Monte Carlo ideas and dynamic programming (DP) ideas."[1] TD resembles a Monte Carlo method because it learns by sampling the environment according to some policy[clarification needed], and is related to dynamic programming techniques as it approximates its current estimate based on previously learned estimates (a process known as bootstrapping). The TD learning algorithm is related to the temporal difference model of animal learning.[2]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
<br/>
<br/>
<br/>
<br/>Sources:<br/>
http://theses.univ-lyon2.fr/documents/getpart.php?id=lyon2.2005.blanc_jm&part=92195<br/>
http://planiart.usherbrooke.ca/cours/ift615/ift615-13-apprentissage-renforcement.pdf<br/>
<br/>
<br/>
<br/>

Dernière version du 30 août 2024 à 14:00

Définition

L’algorithme d’apprentissage par différence temporelle est un apprentissage par renforcement utilisant un mécanisme d’estimation temporelle pour la prédiction du temps d’arrivée d’une récompense. L’algorithme d’apprentissage par différence temporelle s'inspire d'études d’apprentissage chez les animaux.

Français

apprentissage par différence temporelle

méthode TD active

Anglais

temporal difference learning

TD learning

Sources

Source : U de Lyon

Source : U de Sherbrooke