« Vision-Language-Action Model » : différence entre les versions


(Page créée avec « == en construction == == Définition == xxxxx == Français == '''XXXXXXXX''' == Anglais == ''' Vision-Language-Action Model''' ''' VLA''' ''' VLA model''' == Sources == [https://arxiv.org/abs/2505.04769 Source : Arxiv] [https://en.wikipedia.org/wiki/Vision-language-action_model Source : Wikipedia] Catégorie:vocabulary »)
 
Aucun résumé des modifications
 
Ligne 2 : Ligne 2 :


== Définition ==
== Définition ==
xxxxx
Conceptualisés vers 2021-2022, il s'agit d'une classe de modèles fondateurs multimodaux qui intègrent la vision, la langue et les actions. En d'autres termes, ces modèles combinent des encodeurs visuels, des '''[[Modèle de langue|modèles de langue]]''' et des modules de '''[[politique d'action]]''' pour percevoir leur environnement, comprendre des instructions complexes et exécuter des actions appropriées de manière dynamique.
 
Ils peuvent avoir divers domaines d'application, tels que la '''[[robotique]]'''  '''[[humanoïde]]''', les véhicules autonomes, la robotique médicale et industrielle, l'agriculture de précision et le déplacement en '''[[réalité augmentée]]'''.
 
Voir aussi '''[[encodeur]]''', '''[[modèle fondateur]]''' et '''[[modèle multimodal]]'''


== Français ==
== Français ==
Ligne 13 : Ligne 17 :


''' VLA model'''
''' VLA model'''
''A class of multimodal foundation models that integrates vision, language and actions, conceptualized around 2021-2022. In other words, VLA combines vision encoders, language models and policy modules or planners to achieve the perception of their surroundings, understand complex instructions, and execute appropriate actions dynamically. VLAs can have diverse application domains such as humanoid robotics, autonomous vehicles, medical and industrial robotics, precision agriculture, and augmented reality navigation.''


== Sources ==
== Sources ==

Dernière version du 9 novembre 2025 à 11:47

en construction

Définition

Conceptualisés vers 2021-2022, il s'agit d'une classe de modèles fondateurs multimodaux qui intègrent la vision, la langue et les actions. En d'autres termes, ces modèles combinent des encodeurs visuels, des modèles de langue et des modules de politique d'action pour percevoir leur environnement, comprendre des instructions complexes et exécuter des actions appropriées de manière dynamique.

Ils peuvent avoir divers domaines d'application, tels que la robotique humanoïde, les véhicules autonomes, la robotique médicale et industrielle, l'agriculture de précision et le déplacement en réalité augmentée.

Voir aussi encodeur, modèle fondateur et modèle multimodal

Français

XXXXXXXX

Anglais

Vision-Language-Action Model

VLA

VLA model

A class of multimodal foundation models that integrates vision, language and actions, conceptualized around 2021-2022. In other words, VLA combines vision encoders, language models and policy modules or planners to achieve the perception of their surroundings, understand complex instructions, and execute appropriate actions dynamically. VLAs can have diverse application domains such as humanoid robotics, autonomous vehicles, medical and industrial robotics, precision agriculture, and augmented reality navigation.

Sources

Source : Arxiv

Source : Wikipedia

Contributeurs: Arianne Arel