Principes de la régression linéaire

8 décembre 2025

Crée tes propres fiches en 30 secondes

Colle ton cours, Revizly le transforme en résumé, fiches, flashcards et QCM.

Commencer gratuitement

1. Vue d'ensemble

  • La régression linéaire est une méthode statistique pour estimer l'effet d'une ou plusieurs VI continues sur une VD.
  • Elle modélise une relation de type linéaire, en estimant intercept et pente via la méthode des moindres carrés.
  • La démarche englobe la vérification de conditions essentielles : linéarité, distribution normale des résidus, homogénéité des variances, indépendance, variance non nulle, absence de multicolinéarité.
  • Les concepts clés incluent la corrélation, la causalité, les différentes formes de modèles (simple, multiple, hiérarchique), et l'interprétation des coefficients.
  • La distinction entre modération et médiation précise le contexte d'interactions et processus explicatifs dans la relation VI-VD.
  • La validation des hypothèses conditionne la fiabilité des conclusions : significativité du modèle, effectifs expliqués (R²), signification des coefficients, et vérification des prérequis.
  • La régression hiérarchique permet d’évaluer l’impact additionnel de groupes de VI selon la théorie ou la question de recherche.

2. Concepts clés & Éléments essentiels

  • Modèle linéaire : $$Y = \beta_0 + \beta_1 X + \epsilon$$
  • Estimation via méthode des moindres carrés : minimise $$SCE = \sum (Y_i - (\beta_0 + \beta_1 X_i))^2$$
  • Hypothèse nulle H0 : pas de relation ($\beta_1 = 0$) ; H1 : relation significative ($\beta_1 \neq 0$)
  • Coefficient de détermination R² : pourcentage variance expliquée par le modèle
  • P-value : probabilité d’observer les résultats si H0 vraie; seuil alpha = 5%
  • Corrélation r de Pearson : indique la force (0-1) et la direction (+ ou -)
  • Relation entre F et t dans le test d’un coefficient : F = t²
  • Critères pour la validité du modèle :
    • Relation linéaire
    • Pas d’outliers extrêmes
    • Distribution normale des résidus
    • Homogénéité des variances (homoscédasticité)
    • Résidus non auto-corrélés (test Durbin-Watson proche de 2)
    • Variance des VI différente de 0
    • Absence de multicolinéarité (VIF < 5, tolérance > 0.10)

3. Points à Haut Rendement

  • La méthode estime l’effet d’une ou plusieurs VI sur une VD continue, via l’équation $Y= \beta_0 + \beta_1 X + \epsilon$.
  • La réduction de $SCE$ par la méthode des moindres carrés permet de trouver la meilleure droite de régression.
  • La valeur p associée au F-test indique si le modèle global est significatif.
  • La valeur de R² ajusté indique la proportion de variance expliquée, ajustée en fonction du nombre de VI.
  • Les coefficients standardisés (β) permettent de comparer l’impact relatif des VI.
  • La vérification des prérequis est cruciale : linéarité, normalité, homoscédasticité, indépendance des résidus, absence de multicolinéarité.
  • La régression hiérarchique teste l’impact de groupes de VI selon leur ordre d’entrée.
  • La modération implique une interaction (X*Z) modifiant la relation entre VI et VD.
  • La médiation décrit un processus où une VI influence une VD via une variable médiatrice.
  • Les tests se basent sur F (modèle global), t (coefficient), et mesures graphiques (QQ-plot, boxplot, résidus vs prédits).

4. Tableau de Synthèse

ConceptPoints ClésNotes
Modèle linéaireY = β0 + β1X + εRelation linéaire entre VI et VD
EstimationMoindres carrés : minimise SCEApproche standard
HypothèsesRelation linéaire, normalité, homogénéité, indépendance, variance > 0, absence de multicolinéaritéVérif. préalable indispensable
Significationp < 0.05 : relation significativeDécision sur H0/H1
Coefficientsβ non standardisé (b), standardisé (β)Impact dans unités ou écart-type
Variance expliquée par le modèleR² ajusté pour multiple
F- testSignificatif si p < 0.05Validation globale du modèle
RésidusNormalité, homogénéité, indépendanceVérifiés par QQ-plot, graphique, Durbin-Watson
ModérationInteraction (X*Z) modère relationEffet de Z sur X-Y
MédiationM explique relation X-YChemin indirect (a, b, c)

5. Mini-Schéma ASCII

Régression Linéaire
 ├─ Estimation
 │   └─ Minimise $SCE$
 ├─ Vérifications
 │   ├─ Linéarité
 │   ├─ Normalité des résidus
 │   ├─ Homoscédasticité
 │   ├─ Indépendance résidus
 │   └─ Multicolinéarité
 ├─ Tests
 │   ├─ Signification globale (F, p)
 │   ├─ Signification des coefficients (t, p)
 │   └─ Ajustement (R², R² ajusté)
 └─ Interprétation
     └─ Impact et significance des VI

6. Bullets de Révision Rapide

  • La régression linéaire estime la relation entre VI et VD continue.
  • Vérifier la linéarité via nuage de points.
  • Valider normalité et homoscédasticité des résidus.
  • La p-valeur et F-test indiquent la signification globale.
  • Coefficients standardisés (β) permettent comparaison d’impact.
  • R² ajusté indique la proportion expliquée par le modèle.
  • La régression hiérarchique teste l’apport additionnel de groupes de VI.
  • Modération : interaction entre VI et variable modératrice.
  • Médiation : chemin par variable intermédiaire (a, b, c).
  • En cas de violations, envisager transformation ou élimination outliers.
  • La multicolinéarité se vérifie avec VIF<5 et tolérance >0.10.
  • Résultats doivent être appréciés dans le contexte de la validité des prérequis.
  • La modération modifie la force ou la direction de la relation.
  • La médiation explique le processus causal entre VI et VD.
  • Résultats significatifs : p < 0.05, modèle explique une part significative de la variance.