H. Rouanet, M.P. Lecoutre, M.C. Bert, B. Lecoutre, J.-M. Bernard,
L'inférence statistique dans la démarche du chercheur,
Berne, Peter Lang, 1991, 168 p. Revue critique pour Le Travail Humain, 58, 1995.
Quelle belle
idée que de proposer en quelques pages la "substantifique
moelle" d'un travail acharné d'une quinzaine
d'années sur l'inférence statistique, déjà
largement publié par ailleurs et qui aurait dû produire
une révolution dans les pratiques des chercheurs ! Cette
entreprise collective a le mérite, par une présentation
claire, à la portée de toutes les bourses
pécuniaires et intellectuelles, de montrer que ce n'est pas la
difficulté d'intégration de ces nouvelles notions
(notamment l'inférence fiducio-bayésienne) qui serait
à la source de l'échec de leurs mises en pratique. Il
faut donc fortement déconseiller la lecture de ce livre à
ceux qui voudraient y chercher des arguments sérieux pour
rejeter ces méthodes, sur la base de leur difficulté de
mise en oeuvre. Ils y trouveront plutôt des raisons de s'y
intéresser de plus près, et des preuves que les logiciels
et les tables dont ils disposent, pour accompagner le comportement
magique du test de signification, sont dans bien des cas exploitables
pour produire les analyses en prise directe sur les conclusions de
leurs articles. Mais oui, on peut aller plus loin que de prouver que son
"facteur" a un effet différent de zéro ! On peut
même éviter la bévue de s'appuyer sur un test non
significatif pour conclure à l'absence d'effet de son "facteur"
! On peut même, qui plus est, prouver que son modèle est
une bonne approximation de ce qu'on peut tirer de ses observations
(écart négligeable entre ses prédictions et ce qui
peut être inféré des observations) !
Délectable, n'est-ce pas ?
Sans la provocation de l'analyste du livre, les
auteurs démontent avec une remarquable efficacité les
processus cognitifs à l'oeuvre dans la démarche des
chercheurs, qui sont conduits à un conflit inévitable
entre leur attachement religieux aux tests de signification et leur
irrépressible besoin de conclure sur des hypothèses
qu'ils nont pas pu tester. La répression de ce conflit cognitif
conduit même certains à ne plus regarder les observations,
mais seulement le test, qui leur ouvrira les portes des meilleures
revues (disent-ils...). On en arrive même à se refuser de
publier des données qui ont conduit à des
résultats non significatifs. C'est grave, car il y a
peut-être, derrière ces données, des conclusions
valides d'absence d'effet des facteurs expérimentaux, qui sont
quelquefois plus intéressantes à produire que des effets
triviaux, qui n'apportent pas toujours des découvertes à
la Science, même s'ils sont "publiables".
On trouve aussi dans ce livre quelques
éléments d'histoire qui peuvent élever le
débat "cognitif" à un niveau quasi sociologique. En
effet, c'est à Fisher que l'on doit le principe de
l'inférence fiduciaire, qui permet de résoudre ces
conflits (nous sommes dans les années 30...). Cet échec
est l'exemple même de ces blocages scientifiques dont les racines
doivent être trouvées, moins dans les difficultés
cognitives, que dans des déviations d'une organisation sociale
de la recherche. C'est bien à ce niveau que la question se pose
et c'est à ce niveau que les auteurs dece livre l'ont
trop timidement posée. Mais quel courage faut-il à des
chercheurs en sciences sociales pour démonter les
mécanismes de fonctionnement d'une communauté
scientifique dont ils font partie! Comme on a pu étudier avec
profit les mécanismes pervers à l'oeuvre dans la
sélection des articles et des communications ou dans la
définition des grandes orientations scientifiques, il faudrait
aussi dégager les causes organisationnelles des pratiques
erronées de l'analyse statistique.
L'erreur, dit-on, est humaine, mais on sait
maintenant qu'elle est souvent sociale, avant d'être
individuelle. Elle est aussi déterminée par un
environnement technico-économique. L'ère informatique,
puis micro-informatique, a mis sur le marché des logiciels qui
répondent immanquablement aux habitudes d'analyse statistique
des utilisateurs-clients. L'Ergonomie a souvent aussi montré
combien les comportements sont déterminés par les outils
techniques. Les idées de "l'Ecole française d'Analyse des
Données" ne passeront dans les pratiques qu'au prix du
développement de logiciels. Sur ce point, les auteurs de ce
livre ont fait récemment des efforts de diffusion de logiciels
bien documentés et accessibles. Souhaitons que ces efforts
puissent se poursuivre et produire les effets attendus.
Henry Rouanet introduit ce livre par deux textes de
bonne venue, dont il a le secret, mettant en question les pratiques
statisticiennes, en identifiant déjà un premier
décalage entre la satistique mathématicienne
(répondant aux intérêts de ses concepteurs qui
n'adhèrent pas nécessairement à ceux de ses
utilisateurs) et la statistique des chercheurs. L'amitié
qu'il voue à ces derniers le conduit quelquefois à
surestimer la qualité de leurs intuitions, en supposant qu'il
pourrait exister une "interprétation naturelle" des
données ou des "pratiques naturelles", dignes du "bon sauvage",
qu'il faudrait promouvoir. Cette "nature" relève, bien entendu,
de la culture, et peut aussi conduire à des bévues, si on
ne fait pas cet "effort spécial pour prendre conscience de leur
existence" (Feyerabend, cité par l'auteur).
Marie-Paule Lecoutre présente ensuite une
belle synthèse de ses travaux sur les jugements probabilistes
"développés par des sujets adultes" (pourquoi ne pas dire
tout de suite qu'il s'agit de chercheurs ?). C'est un chapitre qui,
sous des allures feutrées, vous fera froid dans le dos: c'est
du moins l'impression que j'ai éprouvée à sa
lecture! Peut-être ai-je été moi-même sujet
de l'une de ces expériences... Comment peut-on utiliser des
outils (les tests) qu'on maîtrise si mal! Les
déterminants sociaux des déviations des
interprétations ne sont toutefois pas traités à
leur juste mesure par l'auteur, bien qu'il les laisse clairement
transparaître dans l'analyse des données recueillies. On
trouve, dans les conclusions, des raisons sérieuses pour
justifier l'utilité des travaux dont il est question dans la
suite du livre.
Henry Rouanet introduit
les principes de l'inférence ensembliste, qui s'appuie sur la
notion de proportion (d'échantillons) sans recourir
d'emblée à la notion de probabilité, plus
abstraite. Il les illustre par l'inférence sur une
fréquence et Marie-Claude Bert par l'inférence sur une
moyenne. Les enseignants apprécieront l'intérêt
pédagogique d'une telle approche, de même que leurs
étudiants, bien entendu.
Bruno Lecoutre explicite avec brio le passage du
test de signification à l'inférence
fiducio-bayésienne, qu'il illustre par des inférences sur
des moyennes et des écarts entre moyennes. Jean-Marc Bernard
conclut ce livre par un chapitre d'une grande clarté concernant
l'inférence sur des fréquences et sur des écarts
entre
fréquences. Cette dernrière question manquait dans les
ouvrages précédemment publiés: on trouve enfin
une méthode de rechange au chi-deux pour produire des
inférences fiduciaires, au prix toutefois de l'acquisition d'un
logiciel de calcul.
Il faut conseiller ce livre, très bien
illustré, d'une grande économie de formules et de signes
cabalistiques, qui, outre son caractère introductif, fournit les
procédures d'application immédiate, tout en renvoyant
à des ouvrages plus détaillés pour des
applications moins courantes.
J.-M. Hoc.