« Mistral 7B » : différence entre les versions
(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' Mistral 7B''' == Anglais == ''' Mistral 7B''' The Mistral 7B paper introduces a compact yet powerful language model that, despite its relatively modest size of 7 billion tokens, outperforms its larger counterparts, such as the 13B Llama 2 model, in various benchmarks. (Next to the two-times larger Qwen 14B, Mistral 7B was also the base model used in the winning solutions of this year's Ne... ») |
Aucun résumé des modifications |
||
(4 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Nom donné à un [[grand modèle de langues]] en [[Paramètres ouverts|paramètres ouverts]] comportant 7 milliards de [[Paramètre|paramètres]] et réalisé par l'entreprise française Mistral. | |||
== Français == | == Français == | ||
Ligne 10 : | Ligne 8 : | ||
''' Mistral 7B''' | ''' Mistral 7B''' | ||
==Sources== | |||
[https://arxiv.org/abs/2310.06825 Source : arxiv] | [https://arxiv.org/abs/2310.06825 Source : arxiv] | ||
[[Catégorie:ENGLISH]] | |||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | |||
[[Catégorie: |
Dernière version du 30 janvier 2024 à 19:09
Définition
Nom donné à un grand modèle de langues en paramètres ouverts comportant 7 milliards de paramètres et réalisé par l'entreprise française Mistral.
Français
Mistral 7B
Anglais
Mistral 7B
Sources
Contributeurs: Patrick Drouin, wiki