« Mixture d'experts » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
(8 versions intermédiaires par un autre utilisateur non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Technique d'apprentissage automatique | Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les résultats des différents experts. | ||
==Compléments== | |||
La mixture d'experts constitue également une architecture pour un réseau de neurones profond. | |||
== Français == | == Français == | ||
''' mélange d'experts ''' | '''mixture d'experts''' | ||
'''mélange d'experts''' | |||
'''combinaison d'experts''' | |||
== Anglais == | == Anglais == | ||
''' mixture of experts''' | '''mixture of experts''' | ||
'''MoE''' | '''MoE''' | ||
Ligne 12 : | Ligne 19 : | ||
'''ME''' | '''ME''' | ||
==Sources== | |||
[https://machinelearningmastery.com/mixture-of-experts/ Source: Machine Learning Mastery] | [https://machinelearningmastery.com/mixture-of-experts/ Source: Machine Learning Mastery] | ||
[https://en.wikipedia.org/wiki/Outline_of_machine_learning#Machine_learning_algorithms Source : Wikipedia Machine learning algorithms ] | [https://en.wikipedia.org/wiki/Outline_of_machine_learning#Machine_learning_algorithms Source : Wikipedia Machine learning algorithms ] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 28 janvier 2024 à 10:28
Définition
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les résultats des différents experts.
Compléments
La mixture d'experts constitue également une architecture pour un réseau de neurones profond.
Français
mixture d'experts
mélange d'experts
combinaison d'experts
Anglais
mixture of experts
MoE
ME
Sources
Contributeurs: Claude Coulombe, Imane Meziani, wiki