« Grand modèle multimodal » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 3 : | Ligne 3 : | ||
== Compléments == | == Compléments == | ||
Voir [[modèle multimodal]] | |||
== Français == | == Français == | ||
''' grand modèle multimodal ''' | ''' grand modèle multimodal ''' | ||
== Anglais == | == Anglais == | ||
'''large multimodal model''' | '''large multimodal model''' | ||
<!-- Basically, multimodal LLMs combine text with other kinds of information, such as images, videos, audio, and other sensory data. Multimodality can solve some of the problems of the current generation of LLMs. Multimodal language models will also unlock new applications that were impossible with text-only models. --> | <!-- Basically, multimodal LLMs combine text with other kinds of information, such as images, videos, audio, and other sensory data. Multimodality can solve some of the problems of the current generation of LLMs. Multimodal language models will also unlock new applications that were impossible with text-only models. --> |
Version du 19 décembre 2023 à 14:55
Définition
Grand modèle qui admet plusieurs modes de représentation de l'information des données (texte, son, image, vidéo, données issues de capteurs, etc.) en entrée et en sortie.
Compléments
Voir modèle multimodal
Français
grand modèle multimodal
Anglais
large multimodal model
Contributeurs: Claude Coulombe, Patrick Drouin, wiki