« Apprentissage par différence temporelle » : différence entre les versions
m (Jacques a déplacé la page Temporal difference learning vers Apprentissage par différence temporelle) |
|||
Ligne 11 : | Ligne 11 : | ||
== Français == | == Français == | ||
apprentissage par différence temporelle | '''apprentissage par différence temporelle''' n.m. | ||
== Anglais == | == Anglais == |
Version du 11 février 2019 à 14:45
Domaine
Apprentissage par renforcement
Coulombe
Définition
En apprentissage par renforcement, l’algorithme d’apprentissage par différence temporelle utilise un mécanisme d’estimation temporelle pour la prédiction du temps d’arrivée d’une récompense. L’algorithme d’apprentissage par différence temporelle s'inspire d'études d’apprentissage chez les animaux.
Français
apprentissage par différence temporelle n.m.
Anglais
Temporal difference learning
Temporal difference (TD) learning is a prediction-based machine learning method. It has primarily been used for the reinforcement learning problem, and is said to be "a combination of Monte Carlo ideas and dynamic programming (DP) ideas."[1] TD resembles a Monte Carlo method because it learns by sampling the environment according to some policy[clarification needed], and is related to dynamic programming techniques as it approximates its current estimate based on previously learned estimates (a process known as bootstrapping). The TD learning algorithm is related to the temporal difference model of animal learning.[2]
Sources:
http://theses.univ-lyon2.fr/documents/getpart.php?id=lyon2.2005.blanc_jm&part=92195
http://planiart.usherbrooke.ca/cours/ift615/ift615-13-apprentissage-renforcement.pdf
Contributeurs: Evan Brach, Claire Gorjux, Claude Coulombe, Jacques Barolet, wiki