« Mixture d'experts » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Aucun résumé des modifications
 
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les résultats des différents experts.
 
Technique d'[[apprentissage automatique]] qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les résultats des différents experts.


==Compléments==
==Compléments==
La mixture d'experts constitue également une architecture pour un réseau de neurones profond.
La mixture d'experts constitue également une architecture pour un réseau de neurones profond qui combine plusieurs modèles experts pour faire des prédictions.  


== Français ==
== Français ==

Dernière version du 29 novembre 2024 à 00:29

Définition

Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les résultats des différents experts.

Compléments

La mixture d'experts constitue également une architecture pour un réseau de neurones profond qui combine plusieurs modèles experts pour faire des prédictions.

Français

mixture d'experts

mélange d'experts

combinaison d'experts

Anglais

mixture of experts

MoE

ME

Sources

Source: Machine Learning Mastery

Source : Wikipedia Machine learning algorithms