« Principe d'entropie maximale » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(15 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Domaine==
[[category:Vocabulaire]]
[[Catégorie:Wikipedia-IA]]
[[Catégorie:Intelligence artificielle]]
[[Catégorie:Apprentissage automatique]]
[[Catégorie:scotty]]
[[Catégorie:9]]
<br>
==Définition==
==Définition==
Le principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à :
Le principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à :
Ligne 14 : Ligne 4 :
*identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ;
*identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ;


*choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande [https://fr.wikipedia.org/wiki/Entropie_de_Shannon entropie au sens de Shannon].
*choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande [https://datafranca.org/wiki/Entropie_de_Shannon entropie au sens de Shannon].


Ce choix n'a rien d'arbitraire : de toutes ces distributions, c'est celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser. La distribution de probabilité obtenue sert ensuite de probabilité a priori dans un processus classique d'inférence bayésienne.
Ce choix n'a rien d'arbitraire : de toutes ces distributions, c'est celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser. La distribution de probabilité obtenue sert ensuite de probabilité a priori dans un processus classique d'inférence bayésienne.


==Français==
==Français==
'''principe d'entropie maximale''' n.m.
'''principe d'entropie maximale'''   
   
   
   
==Anglais==
==Anglais==
Ligne 27 : Ligne 15 :




==Sources==


[https://fr.wikipedia.org/wiki/Principe_d%27entropie_maximale Source : Wikipedia IA]


[https://fr.wikipedia.org/wiki/Principe_d%27entropie_maximale Source : Wikipedia IA]
 
[[Catégorie:Intelligence artificielle]]
[[Catégorie:Apprentissage automatique]]
[[Category:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 12:30

Définition

Le principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à :

  • identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ;

Ce choix n'a rien d'arbitraire : de toutes ces distributions, c'est celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser. La distribution de probabilité obtenue sert ensuite de probabilité a priori dans un processus classique d'inférence bayésienne.

Français

principe d'entropie maximale

Anglais

Principle of maximum entropy


Sources

Source : Wikipedia IA



Contributeurs: Jacques Barolet, wiki