« LLaMA » : différence entre les versions
(Page créée avec « == Définition == Acronyme anglais de ''Large Language Model Meta AI'', LLaMA est un grand modèle de langues (GML) résultant de l'entraînement d'un Modèle de lan... ») |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Acronyme anglais de ''Large Language Model Meta AI'', LLaMA est un [[grand modèle de langues]] (GML) résultant de l'entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). | Acronyme anglais de ''Large Language Model Meta AI'', LLaMA est un [[grand modèle de langues]] (GML) résultant de l'entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). Autrement dit, LLaMA est un [[grand modèle de langues]] génératif préentraîné ([[modèle fondateur]]). | ||
== Compléments == | == Compléments == |
Version du 1 août 2023 à 14:52
Définition
Acronyme anglais de Large Language Model Meta AI, LLaMA est un grand modèle de langues (GML) résultant de l'entraînement d'un modèle de langue au moyen d'un réseau de neurones autoattentif (en anglais, Transformer). Autrement dit, LLaMA est un grand modèle de langues génératif préentraîné (modèle fondateur).
Compléments
LLaMa 2 est distribué avec une licence inspirée du logiciel libre.
Français
LLaMA
Anglais
LLaMA
Contributeurs: Claude Coulombe, Patrick Drouin, wiki