« Mixture d'experts » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 3 : | Ligne 3 : | ||
== Français == | == Français == | ||
''' mixture d'experts ''' | '''mixture d'experts''' | ||
''' mélange d'experts ''' | '''mélange d'experts''' | ||
'''combinaison d'experts''' | |||
== Anglais == | == Anglais == | ||
''' mixture of experts''' | '''mixture of experts''' | ||
'''MoE''' | '''MoE''' |
Version du 27 juillet 2023 à 02:23
Définition
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée à prédire, et finalement combine les prédictions.
Français
mixture d'experts
mélange d'experts
combinaison d'experts
Anglais
mixture of experts
MoE
ME
Contributeurs: Claude Coulombe, Imane Meziani, wiki