« Modèle fondateur » : différence entre les versions
(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Foundation Model''' By foundation model (e.g. BERT, GPT-3, DALL-... ») |
Aucun résumé des modifications |
||
(20 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | |||
Des chercheurs de l'Université Stanford ont proposé le terme modèle fondateur ou modèle de fondation (« foundation model ») pour définir un ensemble de [[grand modèle de langues|grands modèles de langues]] basés sur des architectures de [[réseau autoattentif]] préentraînées sur de vastes corpus parfois selon plusieurs modalités (textes, voix, images, etc.). | |||
Les modèles fondateurs comme [[BERT]], [[GPT-3]], [[LLaMA]], [[DALL-E]] peuvent être adaptés à un large éventail de tâches. | |||
==Compléments== | |||
Les modèles fondateurs constituent un changement radical de paradigme en IA. Ils représentent une augmentation spectaculaire des capacités en termes de précision, de qualité et d'extrapolation à de nouvelles tâches. | |||
Les modèles fondateurs présentent également des problèmes évidents d'utilisation à des fins de désinformation, l'exacerbation des biais et le risque d'oligopole de l'intelligence artificielle entre les mains de quelques entreprises. | |||
== Français == | == Français == | ||
''' | '''modèle fondateur''' | ||
'''modèle de fondation''' | |||
'''modèle fondationnel''' | |||
== Anglais == | == Anglais == | ||
''' | '''foundation model''' | ||
==Sources== | |||
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=FOUNDATION+MODEL&index=alt&codom2nd_wet=1#resultrecs Termium] | |||
[https://fr.wikipedia.org/wiki/Mod%C3%A8le_de_fondation wikipedia ] | |||
[https://arxiv.org/abs/2108.07258 | [https://arxiv.org/abs/2108.07258 arxiv.org ] | ||
[https://www.youtube.com/watch?v=dG628PEN1fY | [https://www.youtube.com/watch?v=dG628PEN1fY youtube ] | ||
[https://www.insa-lyon.fr/es/evenement/conference-les-enjeux-des-modeles-de-langage Conférence INSA] | |||
[[Catégorie: | [[Catégorie:Intelligence artificielle]] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | |||
[[Catégorie:101]] |
Dernière version du 29 août 2024 à 18:32
Définition
Des chercheurs de l'Université Stanford ont proposé le terme modèle fondateur ou modèle de fondation (« foundation model ») pour définir un ensemble de grands modèles de langues basés sur des architectures de réseau autoattentif préentraînées sur de vastes corpus parfois selon plusieurs modalités (textes, voix, images, etc.).
Les modèles fondateurs comme BERT, GPT-3, LLaMA, DALL-E peuvent être adaptés à un large éventail de tâches.
Compléments
Les modèles fondateurs constituent un changement radical de paradigme en IA. Ils représentent une augmentation spectaculaire des capacités en termes de précision, de qualité et d'extrapolation à de nouvelles tâches.
Les modèles fondateurs présentent également des problèmes évidents d'utilisation à des fins de désinformation, l'exacerbation des biais et le risque d'oligopole de l'intelligence artificielle entre les mains de quelques entreprises.
Français
modèle fondateur
modèle de fondation
modèle fondationnel
Anglais
foundation model
Sources
Contributeurs: Claude Coulombe, wiki