Statistiques de discordance


Révision datée du 7 décembre 2022 à 21:18 par Pitpitt (discussion | contributions) (Pitpitt a déplacé la page Discrepancy Statistics vers Statistiques de discordance)

Définition

Les statistiques de discordance décrivent quantitativement le degré de conformité d'un modèle d'apprentissage profond aux données observées dans le monde réel. Elles sont généralement exprimées par une forme de fonction d'écart, où les valeurs les plus élevées indiquent une mauvaise adéquation du modèle aux données et zéro une adéquation parfaite. Dans la plupart des cas, les estimations des paramètres d'un modèle donné sont conçues pour garantir un score de fonction de divergence aussi bas que possible pour le modèle.

En termes algébriques, il s'agit de fonctions continues des éléments S, de la matrice de covariance de l'échantillon et de l'estimation reproduite de S ( Σ(θ) ) calculée à partir des estimations des paramètres et du modèle structurel.


Français

Statistiques de discordance

Anglais

Discrepancy Statistics

Discrepancy statistics quantitatively describe how closely a deep learning model conforms to real world observed data. These are usually expressed with some form of discrepancy function, where larger values show a poor fit of the model to data and zero indicating a perfect fit. In most cases, a given model’s parameter estimates are designed to ensure the lowest discrepancy function score as possible for the model.
In algebraic terms, these are continuous functions of the S elements, the sample covariance matrix, and reproduced estimate of S ( Σ(θ) ) calculated from the parameter estimates and the structural model.



Source : DeepAI.org

Contributeurs: Marie Alfaro, wiki