« Mixture d'experts » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
(Une version intermédiaire par un autre utilisateur non affichée) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les | Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les résultats des différents experts. | ||
==Compléments== | ==Compléments== | ||
Ligne 19 : | Ligne 19 : | ||
'''ME''' | '''ME''' | ||
==Sources== | |||
[https://machinelearningmastery.com/mixture-of-experts/ Source: Machine Learning Mastery] | [https://machinelearningmastery.com/mixture-of-experts/ Source: Machine Learning Mastery] | ||
Dernière version du 28 janvier 2024 à 10:28
Définition
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les résultats des différents experts.
Compléments
La mixture d'experts constitue également une architecture pour un réseau de neurones profond.
Français
mixture d'experts
mélange d'experts
combinaison d'experts
Anglais
mixture of experts
MoE
ME
Sources
Contributeurs: Claude Coulombe, Imane Meziani, wiki