« Optimisation d'hyperparamètre » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(4 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 7 : Ligne 7 :
Plusieurs techniques d'optimisation sont utilisées:
Plusieurs techniques d'optimisation sont utilisées:


* [[recherche force brute|optimisation exhaustive]]
* [[recherche par grille]]


* optimisation Bayésienne
* méthode Bayésienne
   
   
* [[optimisation aléatoire]]
* [[optimisation aléatoire]]
   
   
* [[Arrêt prématuré|optimisation par arrêt précoce]]
* [[Arrêt prématuré|méthode par arrêt précoce]]


== Français ==
== Français ==
Ligne 23 : Ligne 23 :




<small>
==Sources==


[Source : Wiki]
[Source : Wiki]


[[Catégorie:Vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 10:44

Définition

En apprentissage automatique, l'optimisation des hyperparamètres est l'ajustement d'un ensemble d'hyperparamètres dans un modèle afin de le rendre plus performant.

L'optimisation des hyperparamètres d'un modèle implique généralement une série de plusieurs entraînements par validation croisée.

Compléments

Plusieurs techniques d'optimisation sont utilisées:

  • méthode Bayésienne

Français

optimisation d'hyperparamètre

Anglais

hyperparameter optimization


Sources

[Source : Wiki]

Contributeurs: Amanda Clément, wiki