« SARA-RT » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(Une version intermédiaire par le même utilisateur non affichée)
Ligne 7 : Ligne 7 :
== Anglais ==
== Anglais ==
''' SARA-RT'''
''' SARA-RT'''
''' Self-Adaptive Robust Attention'''
''' Self-Adaptive Robust Attention'''
    
    
<small>
==Sources==


[https://sites.google.com/view/rtsara/?pli=1  Source : Google]
[https://sites.google.com/view/rtsara/?pli=1  Source : Google]
Ligne 18 : Ligne 18 :




[[Catégorie:ENGLISH]]


[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:publication]]

Dernière version du 28 janvier 2024 à 12:26

Définition

Nouveau paradigme pour relever le défi émergent de la mise à l'échelle des transformateurs robotiques en vue d'un déploiement sur robot. SARA-RT s'appuie sur la nouvelle méthode de réglage fin que nous avons proposée, appelée "up-training". Elle convertit les politiques robotiques entraînées ou déjà affinées basées sur les transformateurs, d'une complexité temporelle quadratique (y compris les modèles vision-langage-action (VLA) massifs à un milliard de paramètres), en leurs équivalents efficaces à attention linéaire, tout en conservant une qualité élevée.

Français

SARA-RT

Anglais

SARA-RT

Self-Adaptive Robust Attention

Sources

Source : Google

Source : arxiv

Contributeurs: Marie Alfaro, wiki