« Large Language and Vision Assistant » : différence entre les versions


Aucun résumé des modifications
m (Arianne a déplacé la page LLaVA vers Large Language and Vision Assistant par-dessus une redirection)
 
(Aucune différence)

Dernière version du 4 novembre 2024 à 11:31

Définition

LLaVa est l'acronyme du nom propre Large Language and Vision Assistant qui désigne un modèle multimodal en mode innovation ouverte, c'est-à-dire dont les paramètres sont partagés. Ce modèle multimodal de grande taille appartient à la catégorie des grands modèles de langues et il améliore les capacités de reconnaissance et de réponses aux questions portant sur des images. Il offre une réponse plus complète que GPT-4, mais il présente tout de même des limites sur le plan sémantique.

Voir aussi grand modèle de langues

Français

LLaVa

Large Language and Vision Assistant

Anglais

LLaVA

Large Language and Vision Assistant

LLaVa (Large Language and Vision Assistant) is an open-source large multi-modal model belonging to Large Language Models and enhances capabilities for recognizing and answering questions about images. It offers more comprehensive response than GPT-4 but it also has limitation with semantic.

Sources

Source : arxiv

Source : Medium

Contributeurs: Arianne , wiki