« Grand modèle de langues multimodal » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Ligne 21 : Ligne 21 :
<!--  Basically, multimodal LLMs combine text with other kinds of information, such as images, videos, audio, and other sensory data. Multimodality can solve some of the problems of the current generation of LLMs. Multimodal language models will also unlock new applications that were impossible with text-only models. -->
<!--  Basically, multimodal LLMs combine text with other kinds of information, such as images, videos, audio, and other sensory data. Multimodality can solve some of the problems of the current generation of LLMs. Multimodal language models will also unlock new applications that were impossible with text-only models. -->


<small>
 
==Sources==


[https://bdtechtalks.com/2023/03/13/multimodal-large-language-models/  Source : bdtechtalks]
[https://bdtechtalks.com/2023/03/13/multimodal-large-language-models/  Source : bdtechtalks]

Version du 27 janvier 2024 à 21:43

Définition

Grand modèle de langues qui admet plusieurs modalités de représentation de l'information des données (texte, son, image, vidéo, données issues de capteurs, etc.) en entrée et en sortie.

Voir modèle multimodal.

Français

grand modèle de langue multimodal

grand modèle de langage multimodal

GMLM

grand modèle multimodal

Anglais

multimodal large language model

MLLM

large multimodal model


Sources

Source : bdtechtalks

Source : Huang et al. (2023)

Source: Developpez.com