« Large Language and Vision Assistant » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 2 : Ligne 2 :


== Définition ==
== Définition ==
LLaVa (Large Language and Vision Assistant) est un modèle multimodal de grande taille à libre-d'accès qui appartient à la catégorie des grands modèles de langues et qui améliore les capacités de reconnaissance et de réponses aux questions portant sur des images. Il offre une réponse plus complète que GPT-4, mais il présente également des limites sur le plan sémantique.
LLaVa (Large Language and Vision Assistant) est un modèle multimodal libre de grande taille qui appartient à la catégorie des grands modèles de langues et qui améliore les capacités de reconnaissance et de réponses aux questions portant sur des images. Il offre une réponse plus complète que GPT-4, mais il présente également des limites sur le plan sémantique.


Voir aussi '''[[grand modèle de langues]]'''
Voir aussi '''[[grand modèle de langues]]'''


== Français ==
== Français ==
''' XXXXXX'''
''' LLaVa'''
 
''' grand assistant linguistique et visuel'''


== Anglais ==
== Anglais ==

Version du 22 octobre 2024 à 09:29

en construction

Définition

LLaVa (Large Language and Vision Assistant) est un modèle multimodal libre de grande taille qui appartient à la catégorie des grands modèles de langues et qui améliore les capacités de reconnaissance et de réponses aux questions portant sur des images. Il offre une réponse plus complète que GPT-4, mais il présente également des limites sur le plan sémantique.

Voir aussi grand modèle de langues

Français

LLaVa

grand assistant linguistique et visuel

Anglais

LLaVA

large language and vision assistant

LLaVa (Large Language and Vision Assistant) is an open-source large multi-modal model belonging to Large Language Models and enhances capabilities for recognizing and answering questions about images. It offers more comprehensive response than GPT-4 but it also has limitation with semantic.

Sources

Source : arxiv

Source : Medium

Contributeurs: Arianne , wiki