« Grand modèle de langues multimodal » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
Ligne 21 : | Ligne 21 : | ||
<!-- Basically, multimodal LLMs combine text with other kinds of information, such as images, videos, audio, and other sensory data. Multimodality can solve some of the problems of the current generation of LLMs. Multimodal language models will also unlock new applications that were impossible with text-only models. --> | <!-- Basically, multimodal LLMs combine text with other kinds of information, such as images, videos, audio, and other sensory data. Multimodality can solve some of the problems of the current generation of LLMs. Multimodal language models will also unlock new applications that were impossible with text-only models. --> | ||
==Sources== | |||
[https://bdtechtalks.com/2023/03/13/multimodal-large-language-models/ Source : bdtechtalks] | [https://bdtechtalks.com/2023/03/13/multimodal-large-language-models/ Source : bdtechtalks] |
Version du 27 janvier 2024 à 21:43
Définition
Grand modèle de langues qui admet plusieurs modalités de représentation de l'information des données (texte, son, image, vidéo, données issues de capteurs, etc.) en entrée et en sortie.
Voir modèle multimodal.
Français
grand modèle de langue multimodal
grand modèle de langage multimodal
GMLM
grand modèle multimodal
Anglais
multimodal large language model
MLLM
large multimodal model
Sources
Contributeurs: Claude Coulombe, Patrick Drouin, wiki