« Processus de décision markovien » : différence entre les versions


mAucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
== Domaine ==
[[Category:Vocabulary]]
[[Category:Intelligence artificielle]]Intelligence artificielle<br>
[[Category:Intelligence artificielle]]Intelligence artificielle<br>
[[Catégorie:Représentation des connaissances]]Représentation des connaissances<br>
[[Catégorie:Représentation des connaissances]]Représentation des connaissances<br>
Ligne 16 : Ligne 13 :
Les PDM sont utilisés pour étudier des problèmes d'optimisation à l'aide d'algorithmes de programmation dynamique ou d'apprentissage par renforcement dans de nombreuses disciplines, notamment la robotique, l'automatisation, l'économie et l'industrie manufacturière.
Les PDM sont utilisés pour étudier des problèmes d'optimisation à l'aide d'algorithmes de programmation dynamique ou d'apprentissage par renforcement dans de nombreuses disciplines, notamment la robotique, l'automatisation, l'économie et l'industrie manufacturière.
   
   
== Français ==
== Français ==
<h3>
<poll> Choisissez parmi ces termes proposés :
processus de décision de Markov
processus de décision markovien
</poll>
</h3>
<h3>Discussion:</h3> Pour le moment, le terme privilégié est «processus de décision markovien».
<br>
Source:


https://fr.wikipedia.org/wiki/Processus_de_d%C3%A9cision_markovien
'''processus de décision markovien '''
 
'''processus de décision de Markov'''
 
 
   
   
== Anglais ==
== Anglais ==


=== Markov decision process ===
'''Markov decision process '''
Markov decision processes (MDPs) provide a mathematical framework for modeling decision making in situations where outcomes are partly random and partly under the control of a decision maker. MDPs are useful for studying a wide range of optimization problems solved via dynamic programming and reinforcement learning. MDPs were known at least as early as the 1950s (cf. Bellman 1957); a core body of research on Markov decision processes resulted from Ronald A. Howard's book published in 1960, Dynamic Programming and Markov Processes.[1] They are used in a wide area of disciplines, including robotics, automatic control, economics, and manufacturing.
 
More precisely, a Markov decision process is a discrete time stochastic control process. At each time step, the process is in some state s {\displaystyle s} s, and the decision maker may choose any action a {\displaystyle a} a that is available in state s {\displaystyle s} s. The process responds at the next time step by randomly moving into a new state s ′ {\displaystyle s'} s', and giving the decision maker a corresponding reward R a ( s , s ′ ) {\displaystyle R_{a}(s,s')} R_a(s,s').


<br/>
[https://fr.wikipedia.org/wiki/Processus_de_d%C3%A9cision_markovien  Source:wikipedia ]
<br/>
<br/>
<br/>
<br/>
<br/>
<br/>

Version du 13 mai 2019 à 22:46

Domaine

Intelligence artificielle
Représentation des connaissances
Connaissance incertaine ou stochastique
Théorie de la décision

Définition

En intelligence artificielle, un processus de décision markovien (PDM) (en anglais Markov decision process, MDP) est un modèle aléatoire où un agent prend des décisions et où les résultats de ses actions sont aléatoires. Les PDM sont une extension des chaînes de Markov avec plusieurs actions à choisir par état et où des récompenses sont gagnées par l'agent.

Les PDM sont utilisés pour étudier des problèmes d'optimisation à l'aide d'algorithmes de programmation dynamique ou d'apprentissage par renforcement dans de nombreuses disciplines, notamment la robotique, l'automatisation, l'économie et l'industrie manufacturière.


Français

processus de décision markovien

processus de décision de Markov


Anglais

Markov decision process

Source:wikipedia