« LlaMA 2 » : différence entre les versions


(Page créée avec « ==en construction== == Définition == XXXXXXXXX voir LlaMA == Français == ''' LlaMA 2''' == Anglais == ''' LlaMA 2''' what differentiates the Llama 2 suite from many other LLMs is that the models come as standard pretrained models and chat models that have been finetuned via reinforcement learning with human feedback (RLHF, the method used to create ChatGPT) to follow human instructions similar to ChatGPT — RLHF-finetuned models are still rare. <sm... »)
 
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(7 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
Version 2 du [[grand modèle de langues]] de la société META (voir [[LLaMA]]) .


== Définition ==
== Compléments ==  
XXXXXXXXX
Ce qui différencie Llama 2, c'est que ses modèles sont [[Modèle préentraîné|pré-entraînés]] et qu'ils ont été [[Peaufinage|peaufinés]] par [[apprentissage par renforcement et rétroaction humaine]] (en anglais ''RHFL'').


voir [[LlaMA]]
Les paramètres (poids) de l'architecture de LLaMA sont divulgués publiquement, mais le code source d'entraînement demeure la propriété de la société META.


== Français ==
== Français ==
''' LlaMA 2'''
''' LLaMA 2'''


== Anglais ==
== Anglais ==
''' LlaMA 2'''
''' LLaMA 2'''
 
<!-- what differentiates the Llama 2 suite from many other LLMs is that the models come as standard pretrained models and chat models that have been finetuned via reinforcement learning with human feedback (RLHF, the method used to create ChatGPT) to follow human instructions similar to ChatGPT — RLHF-finetuned models are still rare.
-->


what differentiates the Llama 2 suite from many other LLMs is that the models come as standard pretrained models and chat models that have been finetuned via reinforcement learning with human feedback (RLHF, the method used to create ChatGPT) to follow human instructions similar to ChatGPT — RLHF-finetuned models are still rare.




<small>
==Sources==


== Sources ==
[https://arxiv.org/abs/2307.09288  Source : arxiv]
[https://arxiv.org/abs/2307.09288  Source : arxiv]


[https://ici.radio-canada.ca/nouvelle/1997314/meta-llama-2-microsoft-modele-ia Source : Radio-Canada]




 
[[Catégorie:ENGLISH]]
[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 09:51

Définition

Version 2 du grand modèle de langues de la société META (voir LLaMA) .

Compléments

Ce qui différencie Llama 2, c'est que ses modèles sont pré-entraînés et qu'ils ont été peaufinés par apprentissage par renforcement et rétroaction humaine (en anglais RHFL).

Les paramètres (poids) de l'architecture de LLaMA sont divulgués publiquement, mais le code source d'entraînement demeure la propriété de la société META.

Français

LLaMA 2

Anglais

LLaMA 2



Sources

Sources

Source : arxiv

Source : Radio-Canada

Contributeurs: Patrick Drouin, wiki