« Mixture d'experts » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 3 : Ligne 3 :


== Français ==
== Français ==
''' mixture d'experts '''
'''mixture d'experts'''


''' mélange d'experts '''
'''mélange d'experts'''
 
'''combinaison d'experts'''


== Anglais ==
== Anglais ==
''' mixture of experts'''
'''mixture of experts'''


'''MoE'''
'''MoE'''

Version du 27 juillet 2023 à 03:23

Définition

Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée à prédire, et finalement combine les prédictions.

Français

mixture d'experts

mélange d'experts

combinaison d'experts

Anglais

mixture of experts

MoE

ME

Source: Machine Learning Mastery


Source : Wikipedia Machine learning algorithms