« SARA-RT » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
(Une version intermédiaire par le même utilisateur non affichée) | |||
Ligne 7 : | Ligne 7 : | ||
== Anglais == | == Anglais == | ||
''' SARA-RT''' | ''' SARA-RT''' | ||
''' Self-Adaptive Robust Attention''' | ''' Self-Adaptive Robust Attention''' | ||
==Sources== | |||
[https://sites.google.com/view/rtsara/?pli=1 Source : Google] | [https://sites.google.com/view/rtsara/?pli=1 Source : Google] | ||
Ligne 18 : | Ligne 18 : | ||
[[Catégorie:ENGLISH]] | |||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
Dernière version du 28 janvier 2024 à 12:26
Définition
Nouveau paradigme pour relever le défi émergent de la mise à l'échelle des transformateurs robotiques en vue d'un déploiement sur robot. SARA-RT s'appuie sur la nouvelle méthode de réglage fin que nous avons proposée, appelée "up-training". Elle convertit les politiques robotiques entraînées ou déjà affinées basées sur les transformateurs, d'une complexité temporelle quadratique (y compris les modèles vision-langage-action (VLA) massifs à un milliard de paramètres), en leurs équivalents efficaces à attention linéaire, tout en conservant une qualité élevée.
Français
SARA-RT
Anglais
SARA-RT
Self-Adaptive Robust Attention
Sources
Contributeurs: Marie Alfaro, wiki