« Processus de décision markovien » : différence entre les versions


mAucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(20 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
En intelligence artificielle, un processus de décision markovien - PDM (en anglais ''Markov decision process -'' MDP) est un modèle aléatoire où un agent prend des décisions et où les résultats de ses actions sont aléatoires. Les PDM sont une extension des chaînes de Markov avec plusieurs actions à choisir par état et où des récompenses sont gagnées par l'agent.
Les PDM sont utilisés pour étudier des problèmes d'optimisation à l'aide d'algorithmes de programmation dynamique ou d'apprentissage par renforcement dans de nombreuses disciplines, notamment la robotique, l'automatisation, l'économie et l'industrie manufacturière.
==Français==
'''processus de décision markovien  '''
'''processus de décision de Markov''' 
==Anglais==
'''Markov decision process '''


== Domaine ==


[[Category:Vocabulary]]
==Sources==
[[Category:Intelligence artificielle]]Intelligence artificielle<br>
[[Catégorie:Représentation des connaissances]]Représentation des connaissances<br>
[[Catégorie:Connaissance incertaine ou stochastique]]Connaissance incertaine ou stochastique<br>
[[Catégorie:Théorie de la décision]]Théorie de la décision<br>


[[Category:Coulombe]]
[[Catégorie:Scotty]]
== Définition ==
En intelligence artificielle, un processus de décision markovien (PDM) (en anglais ''Markov decision process'', MDP) est un modèle stochastique où un agent prend des décisions et où les résultats de ses actions sont aléatoires. Les MDPs sont une extension des chaînes de Markov avec plusieurs actions à choisir par état et où des récompenses sont gagnées par l'agent.


Les PMD sont utilisés pour étudier des problèmes d'optimisation à l'aide d'algorithmes de programmation dynamique ou d'apprentissage par renforcement. Ils sont utilisés dans de nombreuses disciplines, notamment la robotique, l'automatisation, l'économie et l'industrie manufacturière.
[https://fr.wikipedia.org/wiki/Processus_de_d%C3%A9cision_markovien Source:wikipedia]
== Français ==
<h3>
<poll> Choisissez parmi ces termes proposés :
processus de décision de Markov
processus de décision markovien
</poll>
</h3>
<h3>Discussion:</h3> Pour le moment, le terme privilégié est «processus de décision markovien».
<br>
Source:


https://fr.wikipedia.org/wiki/Processus_de_d%C3%A9cision_markovien
== Anglais ==


=== Markov decision process ===
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=PROCESSUS+DECISIONNEL+MARKOV&index=frt&codom2nd_wet=1#resultrecs  Source : TERMIUM Plus  ]
Markov decision processes (MDPs) provide a mathematical framework for modeling decision making in situations where outcomes are partly random and partly under the control of a decision maker. MDPs are useful for studying a wide range of optimization problems solved via dynamic programming and reinforcement learning. MDPs were known at least as early as the 1950s (cf. Bellman 1957); a core body of research on Markov decision processes resulted from Ronald A. Howard's book published in 1960, Dynamic Programming and Markov Processes.[1] They are used in a wide area of disciplines, including robotics, automatic control, economics, and manufacturing.


More precisely, a Markov decision process is a discrete time stochastic control process. At each time step, the process is in some state s {\displaystyle s} s, and the decision maker may choose any action a {\displaystyle a} a that is available in state s {\displaystyle s} s. The process responds at the next time step by randomly moving into a new state s ′ {\displaystyle s'} s', and giving the decision maker a corresponding reward R a ( s , s ′ ) {\displaystyle R_{a}(s,s')} R_a(s,s').


<br/>
[[Category:GRAND LEXIQUE FRANÇAIS]]
<br/>
<br/>
<br/>
<br/>
<br/>
<br/>

Dernière version du 28 janvier 2024 à 11:39

Définition

En intelligence artificielle, un processus de décision markovien - PDM (en anglais Markov decision process - MDP) est un modèle aléatoire où un agent prend des décisions et où les résultats de ses actions sont aléatoires. Les PDM sont une extension des chaînes de Markov avec plusieurs actions à choisir par état et où des récompenses sont gagnées par l'agent.

Les PDM sont utilisés pour étudier des problèmes d'optimisation à l'aide d'algorithmes de programmation dynamique ou d'apprentissage par renforcement dans de nombreuses disciplines, notamment la robotique, l'automatisation, l'économie et l'industrie manufacturière.

Français

processus de décision markovien

processus de décision de Markov

Anglais

Markov decision process


Sources

Source:wikipedia


Source : TERMIUM Plus