« Loi d’échelle » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(2 versions intermédiaires par un autre utilisateur non affichées)
Ligne 3 : Ligne 3 :


==Français==
==Français==
'''loi d’échelle'''


'''loi de montée en échelle'''
'''loi de montée en échelle'''


'''loi de passage à l'échelle'''
'''loi de passage à l'échelle'''
'''loi d’échelle'''


==Anglais==
==Anglais==
Ligne 25 : Ligne 23 :


[https://arxiv.org/pdf/2001.08361 Kaplan et McCandlish (2024), ''Scaling Laws for Neural Language Models'']
[https://arxiv.org/pdf/2001.08361 Kaplan et McCandlish (2024), ''Scaling Laws for Neural Language Models'']
 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Publication]]

Dernière version du 10 janvier 2025 à 09:52

Définition

Dans le domaine de l'apprentissage automatique, une loi d'échelle est une loi empirique qui décrit comment les performances d'un modèle d'apprentissage, typiquement un réseau neuronal, s'améliorent en fonction de l'augmentation de facteurs clés comme le nombre de paramètres et la taille de l'ensemble de données d'entraînement.

Français

loi d’échelle

loi de montée en échelle

loi de passage à l'échelle

Anglais

neural scaling law

model scaling law

LLM scaling law

Sources

Termium Plus

Vitrine linguistique

Kaplan et McCandlish (2024), Scaling Laws for Neural Language Models

Contributeurs: Patrick Drouin, wiki