Statistiques · Inférence causale

Inférence causale : méthodes pour prouver la causalité (guide débutant)

Comment passer de la corrélation à la causalité ? Découvrez les méthodes clés (A/B test, variables instrumentales, différence-en-différences, RDD) expliquées simplement, sans code complexe.

Niveau : débutant à intermédiaire | Temps de lecture : 12 min | Publié : avril 2026

1. Inférence causale : définition simple

L'inférence causale est l'ensemble des méthodes statistiques qui permettent de répondre à une question fondamentale : "Cette action a-t-elle vraiment causé ce résultat ?"

Définition simple

L'inférence causale, c'est l'art de répondre à la question "Que se serait-il passé si... ?"
- Si on n'avait pas lancé cette campagne marketing ?
- Si ce patient n'avait pas reçu ce traitement ?
- Si cette loi n'avait pas été votée ?

85%
des décideurs veulent des preuves de causalité, pas des corrélations
Enquête Gartner, 2025
3x
plus de chances de succès avec des décisions causales
McKinsey, 2026

Pourquoi c'est important en entreprise ?

  • Allouer un budget marketing → on veut savoir si la campagne cause les ventes
  • Lancer une nouvelle fonctionnalité → on veut savoir si elle cause la rétention
  • Modifier un processus → on veut savoir si cela cause un gain de productivité

Schéma : corrélation vs causalité avec question contrefactuelle

Schéma comparatif corrélation / causalité (Assisté Nano Banana 2)

2. Pourquoi la causalité est si difficile à prouver

Le problème fondamental : le contrefactuel manquant

Pour savoir si un traitement a causé un effet, il faudrait observer la même personne dans deux mondes parallèles : un où elle reçoit le traitement, un où elle ne le reçoit pas. C'est impossible. L'inférence causale contourne ce problème par des méthodes astucieuses.

Les 3 obstacles principaux :

  • Les confondants : une troisième variable influence à la fois la cause et l'effet (ex: température → glaces et noyades)
  • Le sens de la causalité : est-ce X qui cause Y, ou Y qui cause X ? (ex: fidélité client et usage de l'appli)
  • Le biais de sélection : les personnes qui reçoivent le traitement sont différentes de celles qui ne le reçoivent pas

Schéma des 3 obstacles : confondants, causalité inverse, biais de sélection

Illustration des obstacles à la preuve causale (Assisté Nano Banana 2)

3. Méthode n°1 : L'expérimentation (A/B test / essai randomisé)

Principe : On assigne aléatoirement des sujets à un groupe "traitement" et un groupe "contrôle". La randomisation élimine théoriquement tous les confondants.

Exemple concret : Une entreprise veut savoir si un nouveau bouton d'achat augmente les ventes. Elle montre la nouvelle version à 50% des visiteurs (groupe test) et l'ancienne à 50% (groupe contrôle). La seule différence entre les groupes est le bouton. Si les ventes augmentent, c'est bien le bouton qui cause la hausse.

Forces :

  • ✅ C'est la méthode la plus robuste (gold standard)
  • ✅ Pas besoin de connaître les confondants, la randomisation les équilibre
  • ✅ Interprétation causale directe

Faiblesses :

  • ❌ Pas toujours possible (coût, éthique, temps)
  • ❌ Ne fonctionne que sur ce qu'on peut randomiser (pas une loi de santé publique)
  • ❌ Peut ne pas être représentatif de la population réelle (validité externe)
+47%
de ROI moyen pour les décisions basées sur A/B test
Optimizely, 2025
2/3
des entreprises tech utilisent l'A/B test
VWO Survey, 2026

4. Méthode n°2 : Le score de propension (matching)

Principe : Quand on ne peut pas randomiser, on essaie de recréer artificiellement des groupes comparables en appariant chaque personne traitée avec une personne non traitée qui lui ressemble (même âge, même revenu, même historique...).

Exemple concret : Une étude veut mesurer l'effet d'une formation professionnelle sur le salaire. On ne peut pas forcer des gens à suivre la formation au hasard. On apparie chaque personne formée avec une personne non formée qui a le même âge, le même niveau d'études, la même expérience. On compare ensuite leurs salaires.

Forces :

  • ✅ Utile quand la randomisation est impossible
  • ✅ Réduit les biais de sélection sur les variables observées
  • ✅ Bien accepté dans la communauté scientifique

Faiblesses :

  • ❌ Ne contrôle que les confondants observés (si une variable importante manque, le biais persiste)
  • ❌ Nécessite beaucoup de données et de covariables
  • ❌ L'appariement parfait est rare (on peut apparier sur des "probabilités" plutôt que sur des valeurs exactes)
Exemple de réussite : Le matching par score de propension a permis de montrer l'efficacité de traitements médicaux dans des études observationnelles, avant d'être confirmé par des essais randomisés.

Schéma du matching par score de propension : traité vs non traité appariés

Illustration du matching entre deux groupes (Assisté Nano Banana 2)

5. Méthode n°3 : La différence-en-différences (DiD)

Principe : On compare l'évolution d'un groupe traité à celle d'un groupe témoin, avant et après l'intervention. On élimine ainsi les biais constants dans le temps.

Exemple concret : Une région augmente le salaire minimum, la région voisine non. On compare l'évolution de l'emploi dans les deux régions avant/après la réforme. La différence entre les deux évolutions est l'effet causal de la hausse du salaire minimum.

Forces :

  • ✅ Élimine les biais constants (différences fixes entre groupes)
  • ✅ Très utilisée en économie et politiques publiques
  • ✅ Intuitive et facile à visualiser

Faiblesses :

  • ❌ Hypothèse forte : les tendances auraient été parallèles sans l'intervention
  • ❌ Nécessite des données avant et après pour les deux groupes
  • ❌ Ne fonctionne pas si d'autres changements surviennent en même temps
41%
des études causales en économie utilisent DiD
Journal of Economic Literature, 2025
30+
ans d'utilisation en recherche appliquée
Depuis les années 1990

Schéma de la méthode différence-en-différences : évolution parallèle puis divergence

Graphique avec deux courbes (traité/témoin) avant/après (Assisté Nano Banana 2)

6. Méthode n°4 : La régression sur discontinuité (RDD)

Principe : Quand un traitement est attribué selon un seuil (note, âge, revenu), on compare les unités juste au-dessus et juste en dessous du seuil. Elles sont quasi identiques, sauf pour l'accès au traitement.

Exemple concret : Une bourse est attribuée aux étudiants ayant plus de 12/20. On compare les étudiants qui ont 12,1 (boursiers) à ceux qui ont 11,9 (non boursiers). Ces deux groupes sont très similaires en capacités, seule la bourse les distingue. La différence de réussite future est l'effet causal de la bourse.

Forces :

  • ✅ Très crédible (proche d'un essai randomisé local)
  • ✅ Contrôle les confondants observés ET non observés (car les groupes sont presque identiques)
  • ✅ Graphiquement très convaincant

Faiblesses :

  • ❌ L'effet n'est estimé que localement (autour du seuil)
  • ❌ Nécessite un seuil clair et respecté (pas de manipulation possible)
  • ❌ Moins de puissance statistique (on n'utilise que les données proches du seuil)
Cas d'usage typique : Évaluation de programmes scolaires (seuil d'admission), aides au logement (seuil de revenu), médicaments (seuil de tension artérielle).

Schéma RDD : saut de la courbe au niveau du seuil de traitement

Graphique avec rupture de pente au seuil (Assisté Nano Banana 2)

7. Méthode n°5 : Les variables instrumentales (IV)

Principe : On utilise une variable "instrument" qui influence le traitement, mais n'a aucun lien direct avec le résultat (sauf via le traitement). Cela permet de contourner les confondants non observés.

Exemple concret : On veut savoir si le service militaire obligatoire (traitement) améliore les salaires. On utilise comme instrument la loterie du tirage au sort (à certaines époques, les conscrits étaient tirés au sort). La loterie influence le service (être tiré = service), mais n'influence pas directement le salaire (sauf via le service). C'est un bon instrument.

Forces :

  • ✅ Permet de contrôler les confondants non observés (même ceux qu'on n'a pas mesurés)
  • ✅ Très puissante quand un bon instrument existe
  • ✅ Valorisée en économétrie et recherche médicale

Faiblesses :

  • ❌ Trouver un bon instrument est très difficile
  • ❌ L'instrument doit être "exogène" (pas corrélé au résultat autrement que via le traitement)
  • ❌ L'effet estimé est souvent local (uniquement pour ceux affectés par l'instrument)
Attention : Les variables instrumentales sont puissantes mais délicates. Un mauvais instrument (faible ou non valide) peut produire des résultats plus biaisés qu'une simple régression.

8. Comment choisir la bonne méthode ? (arbre de décision)

Question 1 : Puis-je randomiser le traitement ?

OUI → Utilisez un A/B test / essai randomisé (méthode la plus robuste)
NON → Passez à la question suivante

Question 2 : Le traitement est-il attribué selon un seuil ?

OUI → Utilisez la régression sur discontinuité (RDD)
NON → Passez à la question suivante

Question 3 : Ai-je des données avant/après pour un groupe témoin ?

OUI → Utilisez la différence-en-différences (DiD)
NON → Passez à la question suivante

Question 4 : Ai-je un bon instrument (IV) ?

OUI → Utilisez les variables instrumentales (IV)
NON → Utilisez le score de propension (matching) ou la régression ajustée

Tableau récapitulatif des méthodes
Méthode Idéale quand... Prérequis
A/B test Randomisation possible Infrastructure technique
Matching Beaucoup de covariables observées Données riches
DiD Série temporelle + groupe témoin Tendances parallèles
RDD Seuil d'attribution clair Pas de manipulation du seuil
IV Confondants non observés Instrument valide

9. Les limites à connaître

Limite 1 : Aucune méthode n'est parfaite

Chaque méthode repose sur des hypothèses. Si les hypothèses sont violées, les résultats peuvent être biaisés. Toujours tester la robustesse des conclusions.

Limite 2 : La validité externe

Un effet causé mesuré sur une population spécifique (ex: étudiants américains) ne se généralise pas automatiquement à d'autres populations (ex: retraités européens).

Limite 3 : Les confondants non observés persistent

Seules la randomisation et les bonnes variables instrumentales les contrôlent. Le matching et DiD n'aident que pour les confondants observés.

Prudence : Une méthode causale bien exécutée ne garantit pas une vérité absolue. Elle rend l'argument plus solide, mais ne supprime jamais complètement l'incertitude.

10. FAQ — Inférence causale

Quelle est la différence entre corrélation et causalité ?

La corrélation indique que deux variables évoluent ensemble. La causalité indique que l'une provoque l'autre. Deux variables peuvent être corrélées sans lien causal (confondant, hasard, causalité inverse). L'inférence causale est l'ensemble des méthodes pour passer de l'un à l'autre.

Quelle est la méthode causale la plus fiable ?

L'essai randomisé contrôlé (A/B test) est considéré comme le "gold standard" car la randomisation élimine théoriquement tous les biais. Cependant, elle n'est pas toujours possible (coût, éthique, faisabilité). Dans ce cas, les méthodes quasi-expérimentales (DiD, RDD, IV) sont de bonnes alternatives si leurs hypothèses sont vérifiées.

Peut-on prouver la causalité à 100% ?

Non. On ne peut jamais prouver la causalité avec une certitude absolue. On peut seulement accumuler des preuves solides (randomisation, réplications, études diverses). En sciences, on parle de "preuves convergentes" plutôt que de "preuve définitive".

Quel logiciel utiliser pour l'inférence causale ?

Pour l'implémentation technique : R (packages : MatchIt, causalweight, did) et Python (bibliothèques : DoWhy, EconML, causalinference). Pour la découverte et la compréhension : des outils comme DAGitty (gratuit en ligne) aident à visualiser les relations causales. Pour une approche sans code, des plateformes comme Optimizely (A/B test) existent.

L'inférence causale est-elle utile en entreprise ?

Oui, absolument. Les entreprises l'utilisent pour mesurer l'impact réel de leurs actions : ROI marketing, effet d'une nouvelle fonctionnalité, impact d'une formation, efficacité d'une campagne. Cela évite d'investir sur des corrélations trompeuses.

Qu'est-ce que le double machine learning (DML) ?

Le DML est une méthode récente qui combine machine learning et inférence causale. Elle utilise des algorithmes de ML (forêts aléatoires, réseaux de neurones) pour contrôler un grand nombre de confondants, tout en restituant des estimations causales interprétables. C'est une tendance forte depuis 2020.

11. Conclusion

L'inférence causale est un passage obligé pour passer de l'observation à la décision éclairée. Elle ne remplace pas le bon sens ni l'expertise métier, mais elle la discipline et la rend plus fiable.

À retenir absolument

  • Corrélation ≠ causalité. L'inférence causale aide à franchir ce fossé.
  • 5 méthodes principales : A/B test, matching, DiD, RDD, variables instrumentales.
  • L'A/B test est la référence, mais pas toujours possible.
  • Chaque méthode a des hypothèses fortes à vérifier.
  • Le choix dépend du design disponible (randomisation ? seuil ? série temporelle ? instrument ?).
  • Pour l'implémentation technique avec R/Python, consultez notre article dédié.
Pour aller plus loin : Vous souhaitez implémenter ces méthodes avec du code ? Découvrez notre article technique : "Méthodes d'inférence causale avec R et Python" qui détaille l'implémentation pratique de chaque méthode.
 

Recevez la veille IA & Data qui compte vraiment

 

    Analyses claires, outils concrets et tendances IA sans bruit.     Rejoignez les lecteurs de IANA Data.