« Mixture d'experts » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée à prédire, et finalement combine les prédictions.
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les prédictions.


==Compléments==
==Compléments==

Version du 27 juillet 2023 à 04:31

Définition

Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les prédictions.

Compléments

La mixture d'experts constitue également une architecture pour un réseau de neurones profond.

Français

mixture d'experts

mélange d'experts

combinaison d'experts

Anglais

mixture of experts

MoE

ME

Source: Machine Learning Mastery

Source : Wikipedia Machine learning algorithms