« Mixture d'experts » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Technique d'apprentissage automatique où plusieurs experts sont utilisés pour diviser l'espace du problème en régions homogènes.
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée à prédire, et finalement combine les prédictions.


== Français ==
== Français ==
Ligne 17 : Ligne 17 :
[https://machinelearningmastery.com/mixture-of-experts/ Source: Machine Learning Mastery]
[https://machinelearningmastery.com/mixture-of-experts/ Source: Machine Learning Mastery]


[https://en.wikipedia.org/wiki/Mixture_of_experts:  Source : Wikipedia  ]


[https://en.wikipedia.org/wiki/Outline_of_machine_learning#Machine_learning_algorithms  Source : Wikipedia Machine learning algorithms  ]
[https://en.wikipedia.org/wiki/Outline_of_machine_learning#Machine_learning_algorithms  Source : Wikipedia Machine learning algorithms  ]


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Version du 27 juillet 2023 à 02:21

Définition

Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée à prédire, et finalement combine les prédictions.

Français

mixture d'experts

mélange d'experts

Anglais

mixture of experts

MoE

ME

Source: Machine Learning Mastery


Source : Wikipedia Machine learning algorithms