« Théorème No Free Lunch » : différence entre les versions
m (Remplacement de texte — « <small>Entrez ici les domaines et catégories...</small> » par « ») |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
(10 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | |||
== | En [[apprentissage automatique]] ainsi qu'en recherche et optimisation, théorème qui suggère que tous les [[algorithme]]s sont aussi performants les uns que les autres lorsqu'on fait la moyenne de leurs performances sur tous les problèmes et [[ensemble de données|ensembles de données possibles]]. | ||
== Français == | |||
'''théorème No Free Lunch''' | |||
== | '''théorème « No Free Lunch »''' | ||
'''théorème NFL''' | |||
'''théorème du « No Free Lunch »''' | |||
== Anglais == | |||
'''No Free Lunch theorem''' | |||
'''NFL theorem''' | |||
== | ==Sources== | ||
[https://machinelearningmastery.com/no-free-lunch-theorem-for-machine-learning/ Source : machinelearningmastery.com ] | |||
[https://www.kdnuggets.com/2019/09/no-free-lunch-data-science.html Source : KDnuggets ] | |||
== | [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=NO+FREE+LUNCH+THEOREM&codom2nd_wet=1#resultrecs Source : TERMIUM Plus ] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | |||
Dernière version du 28 janvier 2024 à 13:55
Définition
En apprentissage automatique ainsi qu'en recherche et optimisation, théorème qui suggère que tous les algorithmes sont aussi performants les uns que les autres lorsqu'on fait la moyenne de leurs performances sur tous les problèmes et ensembles de données possibles.
Français
théorème No Free Lunch
théorème « No Free Lunch »
théorème NFL
théorème du « No Free Lunch »
Anglais
No Free Lunch theorem
NFL theorem
Sources
Contributeurs: Jean Benoît Morel, wiki