ROUANET
H., BERNARD J-M., BERT M-C., LECOUTRE B., LECOUTRE M-P., LE ROUX B. (1998) New Ways in
Statistical Methodology. Paris, Peter Lang, 276 p.
Il s'agit ici de l'édition anglaise
de l'ouvrage paru dans la même collection
en 1991, sous le titre :
"L'inférence statistique dans la démarche du chercheur". Aussi
défenseur qu'on soit de la francophonie, il vaut mieux lire ce livre dans cette édition anglaise car
certains chapitres sont remaniés (toujours
heureusement) et augmentés d'appendices, tandis que s'ajoutent un gros chapitre
portant sur des données géométriques et un bref mais savoureux préambule (un
dialogue imaginaire entre un sondeur et un statisticien) à ne pas manquer, même si on a déjà pratiqué l'édition française.
L'ouvrage s'adresse à un public déjà
utilisateur habituel d'outils
statistiques et pour qui "t de Student", "hypothèse nulle" et surtout "résultat significatif"
sont des notions familières. La
première partie (deux premiers chapitres) est une discussion critique de la pratique statistique
courante, la seconde (chapitre 3) présente des expériences réalisées avec des chercheurs, la troisième partie constitue une
introduction à 1'inférence ensembliste ou combinatoire,
puis à 1 'inférence fiduciaire et bayésienne.
Dans le
préambule, un sondeur, avant une élection, a
observé 54,5% d'intention de vote en faveur d'un candidat X sur un échantillon de 1000 électeurs tirés au hasard. Le calcul lui révèle
que ces 54,5% sont très significativement supérieurs à 50% : p = .002, donc 1-p
= .998. Il croit pouvoir conclure que X
a 998 chances sur mille de remporter l'élection, ce qui entraîne évidemment
(?) la protestation du statisticien.
Comme le sondeur a aussi calculé
un intervalle
de confiance .95 et trouvé comme limites 51,4% et 57,6%, il
croit cette fois pouvoir
affirmer qu'il ya 95 chances sur 100 que le pourcentage de supporters de X se trouve entre ces limites :
nouvelle déception. Le cadre de référence classique, celui de
Neyman-Pearson, ne permet pas, en
effet, de faire ces prédictions
qui sont portant celles qui intéressent le chercheur. Les hypothèses
probabi1istes qui sous-tendent ce cadre de justification
et d'interprétation,
bourré objectivement de pièges, vont à 1'encontre de la démarche cognitive naturelle
des utilisateurs, comme le vérifie M.-P.
Lecoutre, dans le chapitre 3, après avoir
interrogé des chercheurs en psychologie, tous très habitués à l'usage des tests
statistiques. Elle leur
a présenté, par exemple, une expérience imaginaire où on testait la
différence entre deux moyennes à l'aide
d'un t de Student. Après leur avoir donné la
valeur du t et la probabilité correspondante, on leur demandait, dans le cas d'une réplique de l'expérience : "quelle est, pour vous, la probabilité
que pour la deuxième expérience le résultat du
test t de Student soit au moins aussi significatif
que pour la première expérience ?" Si une telle question vous embarrasse, lecteur, vous êtes en bonne compagnie ! Il s'agit pourtant
d'une question fondamentale pour un chercheur, mais les outils traditionnels
n'aident guère à y répondre.
Cette démonstration
empirique vient à
l'appui des deux lumineux
premiers chapitres où Rouanet, après un utile historique,
expose très clairement et de façon
exhaustive les divers présupposés de cette inférence
statistique classique (désignée
par "cadre fréquentiste"), et délimite ce qu'elle permet
et ne permet pas de conclure (il
n'existe vraisemblablement à l'heure actuelle aucun
précis comparable, en français ou en
anglais). Cela permet d'expliciter
pourquoi l'usage traditionnel des tests statistiques
crée finalement un tel malaise chez
les chercheurs. Devant les difficultés
accumulées, tant de mises en garde intimidantes, ils en arrivent en effet à
cette attitude légaliste qui
consiste à se préoccuper de la validité de
faire tel ou tel test avant même de
la pertinence, malaise qui les conduit parfois à des propos désabusés du
genre : "lorsqu'une recherche est bonne, elle n'a pas besoin de statistique".
Si une partie de l'ouvrage vise à désacraliser l'idéologie dominante, celle de Neyman et Pearson, ce n'est absolument pas pour s'enliser
dans une critique stérile et jeter le bébé avec l'eau du bain. La clarification des interprétations
possibles dans le cadre fréquentiste aide au contraire à décider,
en connaissance de cause, des cas où
l'on peut s'en contenter. Rouanet et
ses collègues défendent certes une démarche alternative (cf. le titre "New
Ways..."), mais avec le souci constant
de conserver autant que possible les procédures habituelles, ce qu'on réalise plus
aisément si on sépare clairement algorithmes et cadre de justification
et d'interprétation
probabi1iste, comme l'ont montré Rouanet et alii (1990)
dans leur manuel : "Statistique en Sciences Humaines : analyse inductive des données" .
L'alternative proposée
se résume fort simplement : les probabilités de l’approche fréquentiste vont de l’inconnu (les paramètres parents considérés comme fixes) vers le connu (les données possibles); il est plus naturel et finalement plus efficace
d'aller du connu (les données effectivement
observées) à l'inconnu, les probabilités
d'hypothèses. Le deuxième chapitre se conclut en traçant les grandes
lignes de cette démarche alternative. Tout
d'abord, ne jamais se lancer dans des procédures d'inférence avant d'avoir épuisé les ressources des statistiques descriptives. Cette première phase doit permettre d'établir des conclusions descriptives
concernant les effets observés. L'inférence statistique aura alors pour objectif d’étendre si possible ces conclusions descriptives en tenant
compte des fluctuations d’échantillonnage.
L’inférence
combinatoire ou ensembliste, prolongement naturel
de la statistique descriptive dans le cas d'ensembles finis, va
constituer le premier degré de 1'inférence. L'idée de base très simple
en est de ne retenir d'une procédure que
son algorithme, en remplaçant dans
les conclusions les formulations probabi1istes
par ses formulations en termes de proportions. En gardant donc les
techniques de calcul familières,
on pourra ainsi évaluer le potentiel inductif
des données en termes de typicalité d'échantillons vis-à-vis de populations
de référence, d'homogénéité entre groupes d'observations, etc. L'inférence combinatoire offre non seulement
l'avantage d'offrir un cadre de justification beaucoup plus
naturel et donc plus accessible
mais présente un intérêt
en soi puisqu'elle s'applique à des situations
où des modèles probabi1istes seraient non-valides, voire
non-pertinents.
Cette approche combinatoire est détaillée par
Rouanet et Bert dans le chapitre 4,
exemples à l'appui. Outre son apport théorique,
il n'est pas mauvais de souligner l'intérêt
pédagogique de 1'inférence
combinatoire : en évitant aux étudiants
de se trouver confrontés prématurément aux difficultés conceptuelles associées aux
interprétations probabi1istes, elle leur
permet de se concentrer sur les seuls algorithmes.
Si l'approche inférence combinatoire est plutôt originale dans le contexte de
la statistique mathématique (même si le groupe de Rouanet se trouve, en ce domaine, en la
bonne compagnie de Maurice Allais, prix
Nobel d'économie), 1'inférence bayésienne, au contraire, a donné et donne lieu à une très abondante littérature mathématique
depuis l'article de Bayes
en 1763, mais ses procédures sont pratiquement inconnues des chercheurs en
psychologie et autres sciences humaines. Les trois derniers chapitres permettront aux lecteurs de s'initier, à
travers des exemples très détaillés
(où l'on suivra la démarche pas à pas depuis les conclusions tirées
de statistiques descriptives conformément à la doctrine défendue par Rouanet au chapitre 2),
aux procédures d'inférence bayésienne et d'inférence fiduciaire
(les distributions fiduciaires
sont souvent très proches des distributions
bayésiennes, d'où l'appellation d'inférence fiducio-bayésienne dans le chapitre de B. Lecoutre).
La grande caractéristique des procédures bayésiennes par
rapport aux procédures traditionnelles est d'inverser le raisonnement inférentiel
: au lieu de baser le raisonnement
inductif sur la distribution
d'échantillonnage qui va de l'inconnu (les paramètres
parents considérés comme fixes) vers le connu (les données observables
considérées comme variables), l'approche bayésienne conduit au
contraire à des probabilités naturelles : elles vont du connu (les
données que l'on a effectivement
observées) vers l'inconnu (les
paramètres parents).
Son approche prédictive (on prolonge la conclusion descriptive obtenu sur l'échantillon
en recherchant la probabilité de retrouver la même propriété sur un nouvel échantillon) répond donc directement cette
fois à la question de la reproductibi1ité des résultats.
De plus, ces
techniques vont permettre non seulement de tester si l'effet existe, si le résultat
est significatif, mais encore d'estimer
avec une certaine probabilité (.90 par ex.) si cet effet est important (au chercheur de fixer la grandeur minimale qu'il
estime importante). La littérature ne croule-t-elle pas d'effets
significatifs mais si petits
qu'ils n'ont guère d'intérêt ? On pourra réciproquement juger de la réelle insigifiance de l'effet
observé comme il est montré dans le dernier chapitre
entièrement nouveau par rapport à l'édition française.
Quand on fait l'effort de
s'initier aux procédures bayésiennes, on découvre que tout ce qui peut être fait dans
le cadre fréquentiste trouve une réinterprétation
plus naturelle dans le cadre
bayésien alors que des problèmes dont la formulation est naturelle (problèmes
prédictifs notamment), mais qui n'ont pas de solution
dans le cadre fréquentiste, en trouvent au contraire une dans le cadre bayésien.
Comme il
existe actuellement des logiciels
permettant d'exécuter aisément les diverses opérations requises par le cadre bayésien, on peut espérer que ce
remarquable ouvrage, unique en son genre, convaincra de nombreux chercheurs et enseignants d'adopter la démarche qu'il prône.
A.
DUFLOS