« Mixture d'experts » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(8 versions intermédiaires par un autre utilisateur non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Technique d'apprentissage automatique où plusieurs experts sont utilisés pour diviser l'espace du problème en régions homogènes.
Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les résultats des différents experts.
 
==Compléments==
La mixture d'experts constitue également une architecture pour un réseau de neurones profond.


== Français ==
== Français ==
''' mélange d'experts '''
'''mixture d'experts'''
 
'''mélange d'experts'''
 
'''combinaison d'experts'''


== Anglais ==
== Anglais ==
''' mixture of experts'''
'''mixture of experts'''


'''MoE'''
'''MoE'''
Ligne 12 : Ligne 19 :
'''ME'''
'''ME'''


 
==Sources==
 
<small>
[https://machinelearningmastery.com/mixture-of-experts/ Source: Machine Learning Mastery]
[https://machinelearningmastery.com/mixture-of-experts/ Source: Machine Learning Mastery]
[https://en.wikipedia.org/wiki/Mixture_of_experts  Source :  Source : Wikipedia  ]


[https://en.wikipedia.org/wiki/Outline_of_machine_learning#Machine_learning_algorithms  Source : Wikipedia Machine learning algorithms  ]
[https://en.wikipedia.org/wiki/Outline_of_machine_learning#Machine_learning_algorithms  Source : Wikipedia Machine learning algorithms  ]


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 10:28

Définition

Technique d'apprentissage automatique qui décompose une tâche en sous-tâches, entraîne un modèle expert sur chacune des sous-tâches, puis entraîne un modèle de triage qui apprend à quel expert faire confiance en fonction de l'entrée, et finalement combine les résultats des différents experts.

Compléments

La mixture d'experts constitue également une architecture pour un réseau de neurones profond.

Français

mixture d'experts

mélange d'experts

combinaison d'experts

Anglais

mixture of experts

MoE

ME

Sources

Source: Machine Learning Mastery

Source : Wikipedia Machine learning algorithms