« Dimensionnalité intrinsèque » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
 
La dimension intrinsèque est un concept qui décrit le nombre minimal de variables nécessaires pour représenter un ensemble de données ou un signal avec peu de perte d’information. Par exemple, si un ensemble de données est échantillonné à partir d’une courbe en deux dimensions, sa dimension intrinsèque est un, car une seule variable suffit pour décrire la variation le long de la courbe.
'''XXXXXXX'''
 
'''Définition simple svp.  qui contextualise...''' 
 
 
GOOGLE TRANSLATE 
INUTILEMENT TECHNIQUE
-Bien que les modèles de langage pré-entraînés puissent être affinés pour produire des résultats de pointe pour une très large gamme de tâches de compréhension du langage, la dynamique de ce processus n'est pas bien comprise, en particulier dans le régime de données faibles. Pourquoi pouvons-nous utiliser des algorithmes de descente de gradient relativement simples (par exemple, sans régularisation forte) pour ajuster un modèle comportant des centaines de millions de paramètres sur des ensembles de données ne comportant que des centaines ou des milliers d'exemples étiquetés ? L'analyse du réglage fin sous l'angle de la dimension intrinsèque nous fournit des intuitions empiriques et théoriques pour expliquer ce phénomène remarquable. Nous montrons empiriquement que les modèles pré-entraînés courants ont une dimension intrinsèque très faible ; en d'autres termes, il existe un reparamétrage de faible dimension qui est aussi efficace pour le réglage fin que l'espace de paramètres complet. Par exemple, en optimisant seulement 200 paramètres entraînables projetés aléatoirement dans l'espace complet, nous pouvons régler un modèle RoBERTa pour atteindre 90 % des niveaux de performance des paramètres complets sur MRPC. En outre, nous montrons empiriquement que le pré-entraînement minimise implicitement la dimension intrinsèque et, ce qui est peut-être surprenant, les modèles plus grands ont tendance à avoir une dimension intrinsèque plus faible après un nombre fixe de mises à jour de pré-entraînement, ce qui explique au moins en partie leur extrême efficacité. Enfin, nous relions la dimensionnalité intrinsèque à des représentations de tâches de faible dimension et à des limites de généralisation basées sur la compression afin de fournir des limites de généralisation basées sur la dimension intrinsèque qui sont indépendantes du nombre total de paramètres.


== Français ==
== Français ==
Ligne 23 : Ligne 13 :


[[Catégorie:vocabulaire]]
[[Catégorie:vocabulaire]]
[[Catégorie:publication]]

Version du 28 novembre 2023 à 12:54

Définition

La dimension intrinsèque est un concept qui décrit le nombre minimal de variables nécessaires pour représenter un ensemble de données ou un signal avec peu de perte d’information. Par exemple, si un ensemble de données est échantillonné à partir d’une courbe en deux dimensions, sa dimension intrinsèque est un, car une seule variable suffit pour décrire la variation le long de la courbe.

Français

Dimensionnalité intrinsèque

Anglais

Intrinsic dimensionality


Source : arxiv



Contributeurs: Marie Alfaro, wiki