« Données hors distribution » : différence entre les versions


(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' out-of-distribution data''' A crucial criterion for deploying a... »)
 
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
Données collectées à un moment différent, et éventuellement dans des conditions différentes ou dans un environnement différent, par rapport aux données collectées pour créer le modèle.


== Définition ==
La détection des données hors production est cruciale pour assurer la fiabilité et la sécurité des systèmes d'apprentissage automatique.
XXXXXXXXX


== Français ==
== Français ==
''' XXXXXXXXX '''
''' données hors production '''


== Anglais ==
== Anglais ==
''' out-of-distribution data'''
''' out-of-distribution data'''


'''OOD'''
A crucial criterion for deploying a strong classifier in many real-world machine learning applications is statistically or adversarially detecting test samples chosen sufficiently far away from the training distribution. Many classification tasks, such as speech recognition, object detection, and picture classification, have been done with great accuracy using neural networks (DNNs). However, determining the prediction uncertainty is still a difficult task. Predictive uncertainty that is well-calibrated is essential since it can be used in a variety of machine learning applications.
Neural networks employing the softmax classifier, on the other hand, are known to yield significantly overconfident results. Loss is suitable for applications requiring tolerance such as product suggestions, it is risky to utilize those kinds of systems in intolerant fields such as robotics or medicine because they can result in fatal mishaps. When possible, an effective AI system should be able to generalize to OOD cases, flagging those beyond its capacity and requesting human intervention.
hile in distribution examples are likely to have the same false patterns as OOD examples, neural network models can significantly rely on spurious cues and annotation artifacts inherent in the odd training data.
Because the training data cannot cover all aspects of a distribution, the model’s capacity to generalize is limited
   
   


<small>
<small>


[XXXXXXX   Source : XXX ]
[https://ai.stackexchange.com/questions/25968/what-is-the-difference-between-out-of-distribution-detection-and-anomaly-detecti  Source: AI Stack Exchange]
 
[https://deepchecks.com/glossary/out-of-distribution/   Source : Deep Checks ]




[[Catégorie:vocabulary]]
[[Catégorie:publication]]

Version du 20 septembre 2022 à 08:21

Définition

Données collectées à un moment différent, et éventuellement dans des conditions différentes ou dans un environnement différent, par rapport aux données collectées pour créer le modèle.

La détection des données hors production est cruciale pour assurer la fiabilité et la sécurité des systèmes d'apprentissage automatique.

Français

données hors production

Anglais

out-of-distribution data

OOD


Source: AI Stack Exchange

Source : Deep Checks



Contributeurs: Imane Meziani, wiki