« Optimisation d'hyperparamètre » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
(4 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 7 : | Ligne 7 : | ||
Plusieurs techniques d'optimisation sont utilisées: | Plusieurs techniques d'optimisation sont utilisées: | ||
* [[recherche | * [[recherche par grille]] | ||
* | * méthode Bayésienne | ||
* [[optimisation aléatoire]] | * [[optimisation aléatoire]] | ||
* [[Arrêt prématuré| | * [[Arrêt prématuré|méthode par arrêt précoce]] | ||
== Français == | == Français == | ||
Ligne 23 : | Ligne 23 : | ||
==Sources== | |||
[Source : Wiki] | [Source : Wiki] | ||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 28 janvier 2024 à 10:44
Définition
En apprentissage automatique, l'optimisation des hyperparamètres est l'ajustement d'un ensemble d'hyperparamètres dans un modèle afin de le rendre plus performant.
L'optimisation des hyperparamètres d'un modèle implique généralement une série de plusieurs entraînements par validation croisée.
Compléments
Plusieurs techniques d'optimisation sont utilisées:
- méthode Bayésienne
Français
optimisation d'hyperparamètre
Anglais
hyperparameter optimization
Sources
[Source : Wiki]
Contributeurs: Amanda Clément, wiki