« Théorème No Free Lunch » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(3 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== en construction ==
== Définition ==
== Définition ==
En [[apprentissage automatique]] ainsi qu'en recherche et optimisation, théorème qui suggère que tous les [[algorithme]]s sont aussi performants les uns que les autres lorsqu'on fait la moyenne de leurs performances sur tous les problèmes et [[ensemble de données|ensembles de données possibles]].


== Français ==
== Français ==
'''théorème No Free Lunch'''
'''théorème No Free Lunch'''
'''théorème « No Free Lunch »'''


'''théorème NFL'''
'''théorème NFL'''


'''théorème « Rien n'est gratuit! »'''  
'''théorème du « No Free Lunch »'''


== Anglais ==
== Anglais ==
Ligne 15 : Ligne 16 :
'''NFL theorem'''
'''NFL theorem'''


The No Free Lunch Theorem, often abbreviated as NFL or NFLT, is a theoretical finding that suggests all optimization algorithms perform equally well when their performance is averaged over all possible objective functions.


There are, generally speaking, two No Free Lunch (NFL) theorems: one for machine learning and one for search and optimization. These two theorems are related and tend to be bundled into one general axiom (the folklore theorem).
==Sources==


TANSTAFL - there ain't no such thing as a free lunch.


[https://machinelearningmastery.com/no-free-lunch-theorem-for-machine-learning/  Source : machinelearningmastery.com ]
[https://machinelearningmastery.com/no-free-lunch-theorem-for-machine-learning/  Source : machinelearningmastery.com ]
Ligne 27 : Ligne 26 :
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=NO+FREE+LUNCH+THEOREM&codom2nd_wet=1#resultrecs  Source : TERMIUM Plus ]
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=NO+FREE+LUNCH+THEOREM&codom2nd_wet=1#resultrecs  Source : TERMIUM Plus ]


[[Catégorie:Vocabulaire]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 13:55

Définition

En apprentissage automatique ainsi qu'en recherche et optimisation, théorème qui suggère que tous les algorithmes sont aussi performants les uns que les autres lorsqu'on fait la moyenne de leurs performances sur tous les problèmes et ensembles de données possibles.

Français

théorème No Free Lunch

théorème « No Free Lunch »

théorème NFL

théorème du « No Free Lunch »

Anglais

No Free Lunch theorem

NFL theorem


Sources

Source : machinelearningmastery.com

Source : KDnuggets

Source : TERMIUM Plus

Contributeurs: Jean Benoît Morel, wiki