« Régression par moindre angle » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(5 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
En statistique, la régression du moindre angle (LARS) est un algorithme d'ajustement des modèles de régression linéaire à des données hautement dimensionnelles, développé par Bradley Efron, Trevor Hastie, Iain Johnstone et Robert Tibshirani[1].
La régression par moindre angle est un algorithme de régression pour les données de grande dimension, développé par Bradley Efron, Trevor Hastie, Iain Johnstone et Robert Tibshirani.


Supposons que nous nous attendions à ce qu'une variable de réponse soit déterminée par une combinaison linéaire d'un sous-ensemble de covariables potentielles. L'algorithme LARS fournit alors un moyen de produire une estimation des variables à inclure, ainsi que de leurs coefficients.
Cet algorithme est similaire à la régression progressive par étapes. À chaque étape, il trouve le prédicteur le plus corrélé avec la réponse. Quand il y a plusieurs prédicteurs ayant une corrélation égale, au lieu de continuer le long du même prédicteur, il va dans une direction équiangulaire entre les prédicteurs.
 
Au lieu de donner un résultat vectoriel, la solution LARS consiste en une courbe indiquant la solution pour chaque valeur de la norme L1 du vecteur de paramètres. L'algorithme est similaire à la régression pas à pas, mais au lieu d'inclure des variables à chaque étape, les paramètres estimés sont augmentés dans une direction équiangulaire aux corrélations de chacun avec le résidu.


== Français ==
== Français ==
Ligne 14 : Ligne 12 :
''' Least-angle regression '''
''' Least-angle regression '''


<small>
==Sources==


[https://en.wikipedia.org/wiki/Least-angle_regression Source : Wikipedia  Machine Learning ]
[https://en.wikipedia.org/wiki/Least-angle_regression Source : Wikipedia  Machine Learning ]
Ligne 22 : Ligne 20 :
[https://fr.acervolima.com/regression-du-moindre-angle-lars/  Source : Acervo Lima ]  
[https://fr.acervolima.com/regression-du-moindre-angle-lars/  Source : Acervo Lima ]  


[https://code.i-harness.com/fr/docs/scikit_learn/modules/linear_model#header  Source : code.i-harness ]


[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Wikipedia-IA‎]]

Dernière version du 28 janvier 2024 à 13:07

Définition

La régression par moindre angle est un algorithme de régression pour les données de grande dimension, développé par Bradley Efron, Trevor Hastie, Iain Johnstone et Robert Tibshirani.

Cet algorithme est similaire à la régression progressive par étapes. À chaque étape, il trouve le prédicteur le plus corrélé avec la réponse. Quand il y a plusieurs prédicteurs ayant une corrélation égale, au lieu de continuer le long du même prédicteur, il va dans une direction équiangulaire entre les prédicteurs.

Français

régression par moindre angle

régression du moindre angle

Anglais

Least-angle regression

Sources

Source : Wikipedia Machine Learning

Source : INRS

Source : Acervo Lima

Source : code.i-harness



Contributeurs: Claire Gorjux, Imane Meziani, wiki