« Régression par moindre angle » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
La régression par moindre angle (LARS) est un algorithme de régression pour les données de grande dimension, développé par Bradley Efron, Trevor Hastie, Iain Johnstone et Robert Tibshirani. | |||
LARS est similaire à la régression progressive par étapes. À chaque étape, il trouve le prédicteur le plus corrélé avec la réponse. Quand il y a plusieurs prédicteurs ayant une corrélation égale, au lieu de continuer le long du même prédicteur, il va dans une direction équiangulaire entre les prédicteurs. | |||
== Français == | == Français == | ||
Ligne 21 : | Ligne 19 : | ||
[https://fr.acervolima.com/regression-du-moindre-angle-lars/ Source : Acervo Lima ] | [https://fr.acervolima.com/regression-du-moindre-angle-lars/ Source : Acervo Lima ] | ||
[ https://code.i-harness.com/fr/docs/scikit_learn/modules/linear_model#header Source : code.i-harness ] | |||
[[Catégorie:vocabulary]] | [[Catégorie:vocabulary]] | ||
[[Catégorie:Wikipedia-IA]] | [[Catégorie:Wikipedia-IA]] |
Version du 19 mai 2021 à 12:34
Définition
La régression par moindre angle (LARS) est un algorithme de régression pour les données de grande dimension, développé par Bradley Efron, Trevor Hastie, Iain Johnstone et Robert Tibshirani.
LARS est similaire à la régression progressive par étapes. À chaque étape, il trouve le prédicteur le plus corrélé avec la réponse. Quand il y a plusieurs prédicteurs ayant une corrélation égale, au lieu de continuer le long du même prédicteur, il va dans une direction équiangulaire entre les prédicteurs.
Français
régression par moindre angle
régression du moindre angle
Anglais
Least-angle regression
Source : Wikipedia Machine Learning
[ https://code.i-harness.com/fr/docs/scikit_learn/modules/linear_model#header Source : code.i-harness ]
Contributeurs: Claire Gorjux, Imane Meziani, wiki