« Loi d’échelle » : différence entre les versions
(Page créée avec « ==Définition== Dans le domaine de l'apprentissage automatique, une loi d'échelle est une loi empirique qui décrit comment les performances d'un modèle d'apprentissage, typiquement un réseau neuronal, s'améliorent en fonction de l'augmentation de facteurs clés comme le nombre de paramètres et la taille de l'ensemble de données d'entraînement. ==Français== '''loi de montée en échelle''' '''loi de passage à... ») |
Aucun résumé des modifications |
||
(3 versions intermédiaires par un autre utilisateur non affichées) | |||
Ligne 3 : | Ligne 3 : | ||
==Français== | ==Français== | ||
'''loi d’échelle''' | |||
'''loi de montée en échelle''' | '''loi de montée en échelle''' | ||
'''loi de passage à l'échelle''' | '''loi de passage à l'échelle''' | ||
==Anglais== | ==Anglais== | ||
Ligne 19 : | Ligne 17 : | ||
==Sources== | ==Sources== | ||
[https://www.btb.termiumplus.gc.ca/ Termium Plus] | |||
[https://vitrinelinguistique.oqlf.gouv.qc.ca Vitrine linguistique] | |||
[https://arxiv.org/pdf/2001.08361 Kaplan et McCandlish (2024), ''Scaling Laws for Neural Language Models''] | [https://arxiv.org/pdf/2001.08361 Kaplan et McCandlish (2024), ''Scaling Laws for Neural Language Models''] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | |||
[[Catégorie: |
Dernière version du 10 janvier 2025 à 09:52
Définition
Dans le domaine de l'apprentissage automatique, une loi d'échelle est une loi empirique qui décrit comment les performances d'un modèle d'apprentissage, typiquement un réseau neuronal, s'améliorent en fonction de l'augmentation de facteurs clés comme le nombre de paramètres et la taille de l'ensemble de données d'entraînement.
Français
loi d’échelle
loi de montée en échelle
loi de passage à l'échelle
Anglais
neural scaling law
model scaling law
LLM scaling law
Sources
Kaplan et McCandlish (2024), Scaling Laws for Neural Language Models
Contributeurs: Patrick Drouin, wiki