« Génération image-à-texte » : différence entre les versions
Aucun résumé des modifications |
m (Arianne a déplacé la page Modèle de langue visuel vers Génération image-à-texte) |
||
(2 versions intermédiaires par le même utilisateur non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Les modèles | Les modèles génératifs image-texte sont des modèles multimodaux appartenant à la catégorie des modèles génératifs. Ils prennent des images ainsi que des textes en entrée pour ensuite générer des textes en sortie. Ils peuvent accomplir de nombreuses tâches liées au ''langage visuel'', telles que le sous-titrage d'images ou la réponse à des questions visuelles. L''''[[apprentissage contrastif]]''' est couramment utilisé pour leur '''[[préentraînement]]'''. | ||
Voir aussi '''[[modèle génératif]]''' et '''[[modèle multimodal]]''' | Voir aussi '''[[modèle génératif]]''' et '''[[modèle multimodal]]''' | ||
Ligne 8 : | Ligne 8 : | ||
== Français == | == Français == | ||
''' | ''' génération image-à-texte''' | ||
''' génération image-texte''' | |||
== Anglais == | == Anglais == |
Dernière version du 4 novembre 2024 à 11:10
Définition
Les modèles génératifs image-texte sont des modèles multimodaux appartenant à la catégorie des modèles génératifs. Ils prennent des images ainsi que des textes en entrée pour ensuite générer des textes en sortie. Ils peuvent accomplir de nombreuses tâches liées au langage visuel, telles que le sous-titrage d'images ou la réponse à des questions visuelles. L'apprentissage contrastif est couramment utilisé pour leur préentraînement.
Voir aussi modèle génératif et modèle multimodal
Compléments
Les modèles de langue visuels ont également commencé à incorporer des instructions et apprentissage par renforcement et rétroaction humaine (ARRH) afin d'améliorer les capacités de dialogue multimodal et d'aligner les résultats sur les réponses souhaitées.
Français
génération image-à-texte
génération image-texte
Anglais
vision-language model
vision language model
visual language model
VLM
Vision-language model are multimodal models belonging to generative models that take image and text inputs, and generate text outputs. They can accomplish various vision-language tasks suchs as image captioning and visual question answering. In their pretraining, contrastive learning is commonly used.
Vision-language models have also begun to incorporate instruction-fine-tuning and Reinforcement Learning from Human Feedback (RLHF) in vision-language models to improve multimodal chat capabilities and align outputs with desired responses.