« Cote logarithmique » : différence entre les versions


m (Remplacement de texte — « == Description == » par « == Définition == »)
m (Remplacement de texte : « ↵↵==Sources== » par «  ==Sources== »)
 
(20 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
== en construction ==  
[[category:Vocabulaire]]
 
[[Catégorie:App-profond-livre]]
<br>
<br>
== Définition ==
== Définition ==
...
Pour les '''[[Modèle linéaire généralisé  | modèles linéaires]]''', l'intersection est la valeur du prédicteur linéaire lorsque toutes les covariables sont nulles. En '''[[régression linéaire]]''', cela équivaut à l'ordonnée à l'origine de la droite de meilleur ajustement. Dans la '''[[régression logistique]]''', il s'agit de la cote logarithmique du groupe de référence.  
<br>
En somme, nous ajoutons le biais pour améliorer l'interprétabilité et ajouter de la flexibilité au modèle.
<br>


== Français ==
== Français ==
'''ordonnée à l'origine'''
'''Ordonnée à l'origine'''
 
<br>
'''Intersection'''
<br>
 
'''Cote logarithmique'''
 
== Anglais ==
== Anglais ==
'''intercept'''
'''Intercept'''
<br>
==Sources==
<br>
[https://www.apprentissageprofond.org/  Source :  ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018 ]
[https://www.leslibraires.ca/livres/l-apprentissage-profond-ian-goodfellow-9791097160432.html    Source:L'APPRENTISSAGE PROFOND]
 
<br>
[https://stats.stackexchange.com/questions/380201/machine-learning-use-of-intercept-in-regression  Source : stackexchange.com]
<br>
 
[https://fr.wikipedia.org/wiki/Ordonn%C3%A9e_%C3%A0_l'origine  Source : wikipedia]
 
 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 30 août 2024 à 17:58

en construction

Définition

Pour les modèles linéaires, l'intersection est la valeur du prédicteur linéaire lorsque toutes les covariables sont nulles. En régression linéaire, cela équivaut à l'ordonnée à l'origine de la droite de meilleur ajustement. Dans la régression logistique, il s'agit de la cote logarithmique du groupe de référence. En somme, nous ajoutons le biais pour améliorer l'interprétabilité et ajouter de la flexibilité au modèle.

Français

Ordonnée à l'origine

Intersection

Cote logarithmique

Anglais

Intercept

Sources

Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018

Source : stackexchange.com

Source : wikipedia

Contributeurs: Jacques Barolet, wiki