« Parcimonie des données » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(5 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 3 : Ligne 3 :
La parcimonie des données désigne une situation qui consiste à ne pas observer suffisamment de données dans un jeu de données pour arriver à modéliser avec précision sa distribution statistique.
La parcimonie des données désigne une situation qui consiste à ne pas observer suffisamment de données dans un jeu de données pour arriver à modéliser avec précision sa distribution statistique.


La parcimonie désigne également des représentations parcimonieuses où beaucoup d'attributs sont absents ou à valeur zéro.  
La parcimonie désigne également des représentations parcimonieuses où beaucoup d’attributs sont absents ou valent zéro.


Par exemple, dans un jeu de données utilisé en '''[[traitement automatique de la langue naturelle]]''', la plupart des attributs linguistiques n'ont qu'un faible nombre d'occurrences. En effet, il y a beaucoup de phénomènes rares en linguistique.
Par exemple, dans un jeu de données utilisé en [[traitement automatique de la langue naturelle]], la plupart des attributs linguistiques n’ont qu’un faible nombre d’occurrences. En effet, il y a beaucoup de phénomènes rares en linguistique


==Compléments==
==Compléments==
Le phénomène de parcimonie  est particulièrement exacerbé pour les données en haute dimension (i.e. avec beaucoup d'attributs).  
Le phénomène de parcimonie  est particulièrement exacerbé pour les données en haute dimension (i.e. avec beaucoup d'attributs).  
<hr/>
<hr />
À distinguer du principe de parcimonie utilisé en sciences et en philosophie qui établit que « les explications les plus simples sont les meilleures ». On parle aussi du principe du rasoir d’Occam car il a été énoncé par le philosophe Guillaume d'Occam au XIVe siècle sous la form « il ne faut pas multiplier les entités sans nécessité ».  
À distinguer du principe de parcimonie utilisé en sciences et en philosophie qui établit que « les explications les plus simples sont les meilleures ». On parle aussi du principe du rasoir d’Occam car il a été énoncé par le philosophe Guillaume d'Occam au XIVe siècle sous la form « il ne faut pas multiplier les entités sans nécessité ».  
<hr/>
<hr />
En français, l'usage de l’adjectif « parcimonieux » qui a le sens de frugal, modique, restreint, minime, sera préféré pour traduire les mots «parcimonious» et «sparse» en anglais à cause de sa proximité.  
En français, l'usage de l’adjectif « parcimonieux » qui a le sens de frugal, modique, restreint, minime, sera préféré pour traduire les mots «parcimonious» et «sparse» en anglais à cause de sa proximité.  
<hr/>
<hr />
En linguistique, on retrouve des vecteurs parcimonieux, également appelés vecteurs creux, qui ont la taille du lexique, typiquement plusieurs dizaines de milliers d'attributs. Les mots sont encodés avec un seul bit discriminant où un attribut est mis à 1 pour représenter le mot et tous les autres attributs à 0 pour représenter les autres mots. Des chercheurs dont des pionniers du MILA dirigé par Yoshua Bengio, ont inventé des vecteurs-contextuels plus denses pour solutionner ce problème.
En linguistique, on retrouve des vecteurs parcimonieux, également appelés vecteurs creux, qui ont la taille du lexique, typiquement plusieurs dizaines de milliers d'attributs. Les mots sont encodés avec un seul bit discriminant où un attribut est mis à 1 pour représenter le mot et tous les autres attributs à 0 pour représenter les autres mots. Des chercheurs dont des pionniers du MILA dirigé par Yoshua Bengio, ont inventé des vecteurs-contextuels plus denses pour solutionner ce problème.


Ligne 30 : Ligne 30 :
'''data sparseness'''
'''data sparseness'''


<small>
==Sources==


Source: Vo, Xuan Thanh (2015). ''Learning with sparsity and uncertainty by Difference of Convex functions optimization'', thèse de doctorat, Université de Lorraine, 231 pages.
Source: Vo, Xuan Thanh (2015). ''Learning with sparsity and uncertainty by Difference of Convex functions optimization'', thèse de doctorat, Université de Lorraine, 231 pages.
Ligne 38 : Ligne 38 :
[[Utilisateur:Patrickdrouin  | Source: Termino]]
[[Utilisateur:Patrickdrouin  | Source: Termino]]


</small><br> <div style="border:2px solid #336699; background: #f6f6f6; padding: 1em; margin-bottom:1em; width: 90%;"><html><a href="https://datafranca.org/wiki/Cat%C3%A9gorie:101"><img src="https://datafranca.org/images/icone-101-mots.png" width="250"></a></html>
</small><br>
<br></div><br><br>
 
{{Modèle:101}}


[[Category:Intelligence artificielle]]
[[Category:Intelligence artificielle]]
Ligne 45 : Ligne 46 :
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]
[[Catégorie:101]]
[[Catégorie:PUBLICATION]]

Dernière version du 28 janvier 2024 à 11:56

Définition

La parcimonie des données désigne une situation qui consiste à ne pas observer suffisamment de données dans un jeu de données pour arriver à modéliser avec précision sa distribution statistique.

La parcimonie désigne également des représentations parcimonieuses où beaucoup d’attributs sont absents ou valent zéro.

Par exemple, dans un jeu de données utilisé en traitement automatique de la langue naturelle, la plupart des attributs linguistiques n’ont qu’un faible nombre d’occurrences. En effet, il y a beaucoup de phénomènes rares en linguistique

Compléments

Le phénomène de parcimonie est particulièrement exacerbé pour les données en haute dimension (i.e. avec beaucoup d'attributs).


À distinguer du principe de parcimonie utilisé en sciences et en philosophie qui établit que « les explications les plus simples sont les meilleures ». On parle aussi du principe du rasoir d’Occam car il a été énoncé par le philosophe Guillaume d'Occam au XIVe siècle sous la form « il ne faut pas multiplier les entités sans nécessité ».


En français, l'usage de l’adjectif « parcimonieux » qui a le sens de frugal, modique, restreint, minime, sera préféré pour traduire les mots «parcimonious» et «sparse» en anglais à cause de sa proximité.


En linguistique, on retrouve des vecteurs parcimonieux, également appelés vecteurs creux, qui ont la taille du lexique, typiquement plusieurs dizaines de milliers d'attributs. Les mots sont encodés avec un seul bit discriminant où un attribut est mis à 1 pour représenter le mot et tous les autres attributs à 0 pour représenter les autres mots. Des chercheurs dont des pionniers du MILA dirigé par Yoshua Bengio, ont inventé des vecteurs-contextuels plus denses pour solutionner ce problème.

Français

parcimonie des données

dispersion des données

dissémination des données

rareté des données

Anglais

data sparsity

data sparseness

Sources

Source: Vo, Xuan Thanh (2015). Learning with sparsity and uncertainty by Difference of Convex functions optimization, thèse de doctorat, Université de Lorraine, 231 pages.

Source: Christine Plumejeaud (2011). Modèles et méthodes pour l’information spatio-temporelle évolutive, thèse de doctorat, Université Grenoble Alpes, 331 pages.

Source: Termino



101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »