« Théorème No Free Lunch » : différence entre les versions


m (JBM a déplacé la page Free-lunch vers Théorème No Free Lunch)
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(Une version intermédiaire par le même utilisateur non affichée)
Ligne 17 : Ligne 17 :




<small>
==Sources==




Ligne 26 : Ligne 26 :
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=NO+FREE+LUNCH+THEOREM&codom2nd_wet=1#resultrecs  Source : TERMIUM Plus ]
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=NO+FREE+LUNCH+THEOREM&codom2nd_wet=1#resultrecs  Source : TERMIUM Plus ]


[[Catégorie:Publication]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 13:55

Définition

En apprentissage automatique ainsi qu'en recherche et optimisation, théorème qui suggère que tous les algorithmes sont aussi performants les uns que les autres lorsqu'on fait la moyenne de leurs performances sur tous les problèmes et ensembles de données possibles.

Français

théorème No Free Lunch

théorème « No Free Lunch »

théorème NFL

théorème du « No Free Lunch »

Anglais

No Free Lunch theorem

NFL theorem


Sources

Source : machinelearningmastery.com

Source : KDnuggets

Source : TERMIUM Plus

Contributeurs: Jean Benoît Morel, wiki