« Mixture d'experts » : différence entre les versions
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les résultats des différents experts. | |||
Technique d'[[apprentissage automatique]] qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les résultats des différents experts. | |||
==Compléments== | ==Compléments== | ||
La mixture d'experts constitue également une architecture pour un réseau de neurones profond. | La mixture d'experts constitue également une architecture pour un réseau de neurones profond qui combine plusieurs modèles experts pour faire des prédictions. | ||
== Français == | == Français == |
Dernière version du 29 novembre 2024 à 00:29
Définition
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les résultats des différents experts.
Compléments
La mixture d'experts constitue également une architecture pour un réseau de neurones profond qui combine plusieurs modèles experts pour faire des prédictions.
Français
mixture d'experts
mélange d'experts
combinaison d'experts
Anglais
mixture of experts
MoE
ME
Sources
Contributeurs: Claude Coulombe, Imane Meziani, wiki