« Mistral 7B » : différence entre les versions


(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' Mistral 7B''' == Anglais == ''' Mistral 7B''' The Mistral 7B paper introduces a compact yet powerful language model that, despite its relatively modest size of 7 billion tokens, outperforms its larger counterparts, such as the 13B Llama 2 model, in various benchmarks. (Next to the two-times larger Qwen 14B, Mistral 7B was also the base model used in the winning solutions of this year's Ne... »)
 
Aucun résumé des modifications
 
(4 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
== Définition ==
XXXXXXXXX
Nom donné à un [[grand modèle de langues]] en [[Paramètres ouverts|paramètres ouverts]] comportant 7 milliards de [[Paramètre|paramètres]] et réalisé par l'entreprise française Mistral.


== Français ==
== Français ==
Ligne 10 : Ligne 8 :
''' Mistral 7B'''
''' Mistral 7B'''


  The Mistral 7B paper introduces a compact yet powerful language model that, despite its relatively modest size of 7 billion tokens, outperforms its larger counterparts, such as the 13B Llama 2 model, in various benchmarks. (Next to the two-times larger Qwen 14B, Mistral 7B was also the base model used in the winning solutions of this year's NeurIPS LLM Finetuning & Efficiency challenge.)
==Sources==
 
<small>


[https://arxiv.org/abs/2310.06825    Source : arxiv]
[https://arxiv.org/abs/2310.06825    Source : arxiv]




[[Catégorie:ENGLISH]]


 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:vocabulary]]

Dernière version du 30 janvier 2024 à 20:09

Définition

Nom donné à un grand modèle de langues en paramètres ouverts comportant 7 milliards de paramètres et réalisé par l'entreprise française Mistral.

Français

Mistral 7B

Anglais

Mistral 7B

Sources

Source : arxiv



Contributeurs: Patrick Drouin, wiki