« SARA-RT » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
Ligne 10 : Ligne 10 :
''' Self-Adaptive Robust Attention'''
''' Self-Adaptive Robust Attention'''
    
    
<small>
==Sources==


[https://sites.google.com/view/rtsara/?pli=1  Source : Google]
[https://sites.google.com/view/rtsara/?pli=1  Source : Google]

Dernière version du 28 janvier 2024 à 13:26

Définition

Nouveau paradigme pour relever le défi émergent de la mise à l'échelle des transformateurs robotiques en vue d'un déploiement sur robot. SARA-RT s'appuie sur la nouvelle méthode de réglage fin que nous avons proposée, appelée "up-training". Elle convertit les politiques robotiques entraînées ou déjà affinées basées sur les transformateurs, d'une complexité temporelle quadratique (y compris les modèles vision-langage-action (VLA) massifs à un milliard de paramètres), en leurs équivalents efficaces à attention linéaire, tout en conservant une qualité élevée.

Français

SARA-RT

Anglais

SARA-RT

Self-Adaptive Robust Attention

Sources

Source : Google

Source : arxiv



Contributeurs: Marie Alfaro, wiki