« Optimisation d'hyperparamètre » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 7 : Ligne 7 :
Plusieurs techniques d'optimisation sont utilisées:
Plusieurs techniques d'optimisation sont utilisées:


* [[recherche force brute|optimisation exhaustive]]
* [[recherche par grille]]


* optimisation Bayésienne
* méthode Bayésienne
   
   
* [[optimisation aléatoire]]
* [[optimisation aléatoire]]
   
   
* [[Arrêt prématuré|optimisation par arrêt précoce]]
* [[Arrêt prématuré|méthode par arrêt précoce]]


== Français ==
== Français ==

Version du 16 février 2023 à 16:30

Définition

En apprentissage automatique, l'optimisation des hyperparamètres est l'ajustement d'un ensemble d'hyperparamètres dans un modèle afin de le rendre plus performant.

L'optimisation des hyperparamètres d'un modèle implique généralement une série de plusieurs entraînements par validation croisée.

Compléments

Plusieurs techniques d'optimisation sont utilisées:

  • méthode Bayésienne

Français

optimisation d'hyperparamètre

Anglais

hyperparameter optimization


[Source : Wiki]

Contributeurs: Amanda Clément, wiki