« Optimisation d'hyperparamètre » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 7 : | Ligne 7 : | ||
Plusieurs techniques d'optimisation sont utilisées: | Plusieurs techniques d'optimisation sont utilisées: | ||
* [[recherche | * [[recherche par grille]] | ||
* | * méthode Bayésienne | ||
* [[optimisation aléatoire]] | * [[optimisation aléatoire]] | ||
* [[Arrêt prématuré| | * [[Arrêt prématuré|méthode par arrêt précoce]] | ||
== Français == | == Français == |
Version du 16 février 2023 à 16:30
Définition
En apprentissage automatique, l'optimisation des hyperparamètres est l'ajustement d'un ensemble d'hyperparamètres dans un modèle afin de le rendre plus performant.
L'optimisation des hyperparamètres d'un modèle implique généralement une série de plusieurs entraînements par validation croisée.
Compléments
Plusieurs techniques d'optimisation sont utilisées:
- méthode Bayésienne
Français
optimisation d'hyperparamètre
Anglais
hyperparameter optimization
[Source : Wiki]
Contributeurs: Amanda Clément, wiki