« Large Language and Vision Assistant » : différence entre les versions
Aucun résumé des modifications |
m (Arianne a déplacé la page LLaVA vers Large Language and Vision Assistant par-dessus une redirection) |
(Aucune différence)
|
Dernière version du 4 novembre 2024 à 11:31
Définition
LLaVa est l'acronyme du nom propre Large Language and Vision Assistant qui désigne un modèle multimodal en mode innovation ouverte, c'est-à-dire dont les paramètres sont partagés. Ce modèle multimodal de grande taille appartient à la catégorie des grands modèles de langues et il améliore les capacités de reconnaissance et de réponses aux questions portant sur des images. Il offre une réponse plus complète que GPT-4, mais il présente tout de même des limites sur le plan sémantique.
Voir aussi grand modèle de langues
Français
LLaVa
Large Language and Vision Assistant
Anglais
LLaVA
Large Language and Vision Assistant
LLaVa (Large Language and Vision Assistant) is an open-source large multi-modal model belonging to Large Language Models and enhances capabilities for recognizing and answering questions about images. It offers more comprehensive response than GPT-4 but it also has limitation with semantic.