« Théorème No Free Lunch » : différence entre les versions
m (JBM a déplacé la page Free-lunch vers Théorème No Free Lunch) |
Aucun résumé des modifications |
||
Ligne 26 : | Ligne 26 : | ||
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=NO+FREE+LUNCH+THEOREM&codom2nd_wet=1#resultrecs Source : TERMIUM Plus ] | [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=NO+FREE+LUNCH+THEOREM&codom2nd_wet=1#resultrecs Source : TERMIUM Plus ] | ||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Version du 8 septembre 2021 à 10:32
Définition
En apprentissage automatique ainsi qu'en recherche et optimisation, théorème qui suggère que tous les algorithmes sont aussi performants les uns que les autres lorsqu'on fait la moyenne de leurs performances sur tous les problèmes et ensembles de données possibles.
Français
théorème No Free Lunch
théorème « No Free Lunch »
théorème NFL
théorème du « No Free Lunch »
Anglais
No Free Lunch theorem
NFL theorem
Contributeurs: Jean Benoît Morel, wiki