« LLaMA » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Acronyme anglais de ''Large Language Model Meta AI'', LLaMA est un [[grand modèle de langues]] (GML) résultant de l'entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). Autrement dit, LLaMA est un [[grand modèle de langues]] génératif préentraîné | Acronyme anglais de ''Large Language Model Meta AI'', LLaMA est un [[grand modèle de langues]] (GML) résultant de l'entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). Autrement dit, LLaMA est un [[grand modèle de langues]] génératif préentraîné aussi appelé [[modèle fondateur]]. | ||
== Compléments == | == Compléments == |
Version du 1 août 2023 à 15:07
Définition
Acronyme anglais de Large Language Model Meta AI, LLaMA est un grand modèle de langues (GML) résultant de l'entraînement d'un modèle de langue au moyen d'un réseau de neurones autoattentif (en anglais, Transformer). Autrement dit, LLaMA est un grand modèle de langues génératif préentraîné aussi appelé modèle fondateur.
Compléments
LLaMA 2 est distribué avec une licence inspirée du logiciel libre.
Français
LLaMA
Anglais
LLaMA
Contributeurs: Claude Coulombe, Patrick Drouin, wiki