« Principe d'entropie maximale » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 15 : | Ligne 15 : | ||
*choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. | *choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. | ||
Ce choix n'a rien d'arbitraire : de toutes ces distributions, c'est | Ce choix n'a rien d'arbitraire : de toutes ces distributions, c'est celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser. La distribution de probabilité obtenue sert ensuite de probabilité a priori dans un processus classique d'inférence bayésienne. | ||
La distribution de probabilité obtenue sert ensuite de probabilité a priori dans un processus classique d'inférence bayésienne. | |||
Ligne 24 : | Ligne 22 : | ||
==Anglais== | ==Anglais== | ||
'''Principle of maximum entropy''' | '''Principle of maximum entropy''' |
Version du 27 mai 2019 à 15:16
Domaine
Définition
Le principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à :
- identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ;
- choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon.
Ce choix n'a rien d'arbitraire : de toutes ces distributions, c'est celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser. La distribution de probabilité obtenue sert ensuite de probabilité a priori dans un processus classique d'inférence bayésienne.
Français
principe d'entropie maximale n.m.
Anglais
Principle of maximum entropy
Contributeurs: Jacques Barolet, wiki