« Mixture d'experts » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Technique d'apprentissage automatique | Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée à prédire, et finalement combine les prédictions. | ||
== Français == | == Français == | ||
Ligne 17 : | Ligne 17 : | ||
[https://machinelearningmastery.com/mixture-of-experts/ Source: Machine Learning Mastery] | [https://machinelearningmastery.com/mixture-of-experts/ Source: Machine Learning Mastery] | ||
[https://en.wikipedia.org/wiki/Outline_of_machine_learning#Machine_learning_algorithms Source : Wikipedia Machine learning algorithms ] | [https://en.wikipedia.org/wiki/Outline_of_machine_learning#Machine_learning_algorithms Source : Wikipedia Machine learning algorithms ] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Version du 27 juillet 2023 à 02:21
Définition
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée à prédire, et finalement combine les prédictions.
Français
mixture d'experts
mélange d'experts
Anglais
mixture of experts
MoE
ME
Contributeurs: Claude Coulombe, Imane Meziani, wiki