« LlaMA 2 » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Version 2 du [[grand modèle de langues]] [[LLaMA]] | |||
== Compléments == | |||
Ce qui différencie Llama 2, c'est que ses modèles sont [[Modèle préentraîné|pré-entraînés]] et qu'ils ont été affinés par [[apprentissage par renforcement et rétroaction humaine]] (en anglais ''RHFL''). | |||
== Français == | == Français == | ||
Ligne 12 : | Ligne 11 : | ||
''' LlaMA 2''' | ''' LlaMA 2''' | ||
<!-- what differentiates the Llama 2 suite from many other LLMs is that the models come as standard pretrained models and chat models that have been finetuned via reinforcement learning with human feedback (RLHF, the method used to create ChatGPT) to follow human instructions similar to ChatGPT — RLHF-finetuned models are still rare. | |||
--> | |||
Ligne 22 : | Ligne 22 : | ||
[[Catégorie: | [[Catégorie:Publication]] |
Version du 9 janvier 2024 à 15:26
Définition
Version 2 du grand modèle de langues LLaMA
Compléments
Ce qui différencie Llama 2, c'est que ses modèles sont pré-entraînés et qu'ils ont été affinés par apprentissage par renforcement et rétroaction humaine (en anglais RHFL).
Français
LlaMA 2
Anglais
LlaMA 2
Contributeurs: Patrick Drouin, wiki