« Données hors distribution » : différence entre les versions


(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' out-of-distribution data''' A crucial criterion for deploying a... »)
 
Aucun résumé des modifications
 
(9 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
Données collectées à un moment différent, et éventuellement dans des conditions différentes ou dans un environnement différent, par rapport aux données collectées pour créer le modèle.


== Définition ==
La détection des données hors distribution est cruciale pour assurer la fiabilité et la sécurité des systèmes d'apprentissage automatique.
XXXXXXXXX


== Français ==
== Français ==
''' XXXXXXXXX '''
'''données hors distribution'''
 
'''données hors domaine'''


== Anglais ==
== Anglais ==
''' out-of-distribution data'''
''' out-of-distribution data'''


''' out of distribution data'''
'''out-of-domain data'''
'''out of domain data'''
'''OOD'''
   
   
A crucial criterion for deploying a strong classifier in many real-world machine learning applications is statistically or adversarially detecting test samples chosen sufficiently far away from the training distribution. Many classification tasks, such as speech recognition, object detection, and picture classification, have been done with great accuracy using neural networks (DNNs). However, determining the prediction uncertainty is still a difficult task. Predictive uncertainty that is well-calibrated is essential since it can be used in a variety of machine learning applications.
==Sources==
Neural networks employing the softmax classifier, on the other hand, are known to yield significantly overconfident results. Loss is suitable for applications requiring tolerance such as product suggestions, it is risky to utilize those kinds of systems in intolerant fields such as robotics or medicine because they can result in fatal mishaps. When possible, an effective AI system should be able to generalize to OOD cases, flagging those beyond its capacity and requesting human intervention.
hile in distribution examples are likely to have the same false patterns as OOD examples, neural network models can significantly rely on spurious cues and annotation artifacts inherent in the odd training data.
Because the training data cannot cover all aspects of a distribution, the model’s capacity to generalize is limited
 
<small>


[XXXXXXX   Source : XXX ]
[https://ai.stackexchange.com/questions/25968/what-is-the-difference-between-out-of-distribution-detection-and-anomaly-detecti   Source: AI Stack Exchange]


[https://deepchecks.com/glossary/out-of-distribution/  Source : Deep Checks ]


[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 17 août 2024 à 14:50

Définition

Données collectées à un moment différent, et éventuellement dans des conditions différentes ou dans un environnement différent, par rapport aux données collectées pour créer le modèle.

La détection des données hors distribution est cruciale pour assurer la fiabilité et la sécurité des systèmes d'apprentissage automatique.

Français

données hors distribution

données hors domaine

Anglais

out-of-distribution data

out of distribution data

out-of-domain data

out of domain data

OOD

Sources

Source: AI Stack Exchange

Source : Deep Checks