Épistémologie de la recherche en psychologie

Épistémologie de la recherche en psychologie

Par Stéphane Vautier

Pour citer cet article :

Vautier S. (2012). Propos sur la responsabilité scientifique du psychologue. Essai d’épistémologie appliquée. Pratiques Psychologiques, 18, pp.373-383.


Résumé

Si l’exercice professionnel de la psychologie suppose l’utilisation de connaissances scientifiques, celle-ci implique la responsabilité scientifique du psychologue. Pour préciser ce qu’elle est, il est utile de préciser ce qu’on entend par connaissance scientifique en psychologie, ce qui constitue un exercice d’épistémologie appliquée. Une approche ternaire du rapport au savoir est appliquée à l’identification des troubles mentaux, à l’évaluation clinique du changement, à la démonstration d’une influence et à l’édification des objets de connaissance en psychologie. Cette analyse suggère que le psychologue est probablement conduit à affirmer, à la lumière des connaissances disponibles, l’indétermination psychologique dans laquelle se trouve la personne à laquelle il s’intéresse.

Mots-clés :

épistémologie, responsabilité scientifique

____________________

  1. Introduction

En 1958, George Canguilhem doutait de la légitimité politique et scientifique de la psychologie (). Cet article ignore la question de la légitimité politique de la psychologie. L’institution qui emploie un psychologue lui demande de s’engager efficacement auprès d’autrui et d’autres personnes (privées ou institutionnelles) pour le bien de cet autrui (que nous noterons A) et/ou pour le bien collectif. La définition du bien d’autrui et du bien collectif ainsi que l’analyse des conflits émergeant de la confrontation des points de vue individuel vs. collectif, collectif 1 vs. collectif 2, etc. relèvent de la philosophie politique. L’engagement du psychologue suppose l’élaboration d’un savoir psychologique spécifique sur A, sa divulgation partielle ou totale, et éventuellement, une position de conseil quant à certaines actions à entreprendre. Par conséquent, il implique un principe de responsabilité professionnelle, c’est-à-dire la nécessité pour le psychologue d’être prêt à rendre compte de son savoir, pour répondre ainsi de son statut institutionnel par sa qualification scientifique. En effet, le psychologue contribue à ce que nous appellerons l’institutionnalisation de A, c’est-à-dire qu’il s’engage avec A dans une forme de relation sociale dissymétrique, telle qu’il dispose d’un pouvoir de détermination (signifiante) de A. C’est, nous semble-t-il, la légitimité de ce pouvoir qu’interrogeait Canguilhem. Nier un tel pouvoir consisterait à affirmer qu’aucun psychologue institutionnel n’a de connaissance efficace sur quiconque pénètre dans le champ institutionnel en tant que patient. Un tel scepticisme contredirait l’idée même de la qualification professionnelle du psychologue. S’il prétend assumer une responsabilité professionnelle, le psychologue se trouve en devoir de répondre de la validité de son savoir, ne serait-ce que vis-à-vis de lui-même. Comme la scientificité de la psychologie est toujours un sujet de débat (Lilienfeld, 2010 ; Trendler, 2009), il n’est pas certain que ce savoir puisse être validé selon les canons de la science, et il est possible que la qualification du psychologue s’effectue selon des modalités alternatives (cf. l’appel de certains psychologues au développement de réseaux de pairs, Johnson, Barnett, Elman, Forrest, & Kaslow, 2012). Mais si nous insistons sur la scientificité du savoir, il faut alors expliciter ses critères suffisants.

L’épistémologie est une discipline réflexive et critique spécialisée dans la question de la validité des connaissances (e. g., Chalmers, 1999 ; Soler, 2000). Nous ancrerons notre réflexion sur les prémisses suivantes : les connaissances pertinentes pour une psychologie scientifique sont des propositions qu’on s’accorde à doter d’une valeur de vérité (vrai ou faux) ; ainsi, étant donnée une proposition pertinente P, chaque psychologue se trouve en position de décider si P est vraie, fausse, ou s’il ignore sa valeur de vérité. En concevant le rapport au savoir de manière ternaire [2] ), cette approche confère une signification éthique à l’affirmation de l’ignorance de la valeur de vérité d’une proposition, en ce sens que le psychologue assume la responsabilité de sa propre ignorance. L’ignorance du psychologue peut être due à son inculture, ce qui est inévitable dans une certaine mesure et l’oblige à adopter une attitude modeste et ouverte, ou son ignorance peut être due à l’état objectif des connaissances scientifiques en psychologie ; dans ce cas, le psychologue a pour obligation morale d’affirmer l’ignorance dans laquelle il se trouve parce qu’elle implique l’indétermination signifiante de A du point de vue psychologique. Lorsque le psychologue participe à la détermination signifiante de A en dépit de son ignorance, il s’expose à l’abus de pouvoir dénoncé par Canguilhem (1958) : La défense du testé [i. e., A qui vient de faire l’objet de l’auscultation psychologique] c’est la répugnance à se voir traité comme un insecte, par un homme à qui il ne reconnaît aucune autorité pour lui dire ce qu’il est et ce qu’il doit faire » (p. 24).

On peut croire que P est vraie parce que P est réputée vraie ; la connaissance que l’on a de la réputation de vérité de P ne nécessite pas qu’on s’engage sur sa vérité. C’est sur cette suspension délibérée du jugement de validité que nous voulons attirer l’attention de notre lecteur parce que la responsabilité scientifique loge dans cet interstice. Nous rejetons la réputation de validité comme critère suffisant de validité scientifique. La validité d’une proposition scientifique repose par principe sur la possibilité dont jouit quiconque de vérifier par lui-même la validité de cette proposition. Bien entendu, il n’est en fait pas possible à quiconque de vérifier tout le savoir scientifique. Mais il importe que le jugement de validité d’une proposition ne soit pas en droit réservé à une élite, et que la vérification soit bien l’affaire de chacun [3] .

Cet article a pour objectif d’entraîner les étudiants en psychologie et les psychologues à identifier le savoir pertinent à propos duquel ils sont susceptibles d’être reconnus compétents par l’institution qui les emploie, et à examiner leur rapport épistémique à ce savoir (i. e., je sais qu’il est vrai, faux ou j’ignore s’il est vrai ou faux) ainsi que la portée éthique de l’utilisation de ce savoir. Par « entraîner », nous entendons à la fois exercer à et donner le goût de s’aventurer dans une réflexion rude, c’est-à-dire exigeante et peut-être frustrante compte tenu des difficultés qu’elle présente, à propos de la validité des savoirs diffusés en psychologie.

L’article initie cette réflexion épistémologique à partir de quatre thèmes. La première section s’appuie sur un article de Denny Borsboom (2008) intitulé « Psychometric perspectives on diagnostic systems ». L’auteur entend montrer que les relations entre les symptômes et les troubles (disorders) telles qu’elles sont utilisées dans le DSM-IV (American Psychiatric Association, 2003) peuvent être conçues selon quatre perspectives méta-théoriques, qu’il qualifie respectivement de constructiviste, diagnostique, dimensionnelle et causale. La seconde section pose le problème de la correspondance qui n’existe pas entre le référentiel évaluatif fondé sur le sens commun et le référentiel de mesurage fondé sur l’observation systématique des symptômes. La troisième section aborde le problème de l’interprétation causale d’une différence entre deux statistiques d’échantillon. La dernière section introduit la question de l’objectivité des connaissances en psychologie.

  1. Les troubles mentaux

L’article de Borsboom (2008) constitue un exemple de critique métathéorique du savoir psychologique élaboré par le groupe de travail qui a proposé le DSM. Le propos de Borsboom ignore manifestement celui de Canguilhem et l’enjeu éthique de son utilisation par le psychologue n’est pas sa préoccupation. On a plutôt l’impression que Borsboom essaie de démontrer que les approches constructiviste, diagnostique et dimensionnelle, selon sa terminologie, échouent à expliquer la causalité des symptômes cliniques. Mais comme il n’élabore pas la notion de causalité, son lecteur n’apprend pas comment vérifier une relation de cause à effet. Borsboom se demande ce que fait réellement un chercheur lorsqu’il utilise le DSM. Le chercheur intéressé par la relation entre un construit (un trouble) et des observables (les symptômes) utilise des règles de regroupement des symptômes (constructivisme), ou bien voit dans les symptômes des indicateurs de classes (approche diagnostique) ou de grandeurs (approche dimensionnelle) latentes. Nous ne suivrons pas Borsboom dans la promotion d’une approche causale des symptômes cliniques sans connaître les conditions suffisantes qu’il propose pour reconnaître l’existence d’une relation de cause à effet, mais nous utiliserons sa classification pour nous exercer à l’identification de certaines propositions et à l’analyse de leur validité. L’approche constructiviste répond à un projet d’identification de A dans un système de catégories. Étant donné un jeu de règles de classification fondées sur des attributs objectifs (nous reviendrons sur cette provision dans la quatrième section) affirmer que A souffre d’un trouble dépressif majeur par exemple consiste à affirmer que son état tel qu’il est décrit selon les « grilles » du DSM correspond à cette catégorie. Une telle proposition engage donc la capacité du psychologue à identifier A dans un référentiel de description (Vautier, 2011b), c’est-à-dire à effectuer des observations élémentaires et à appliquer les règles de regroupement idoines. À l’instar de Borsboom, nous laisserons de côté la question de ce qui motive un tel travail d’identification – il s’agit de l’aspect politique de l’auscultation psychologique (cf. l’engagement au nom d’un certain bien, évoqué en introduction). La catégorie ne suffit pas pour connaître l’état exact dans lequel se trouvait A lorsqu’il a été identifié, puisque plusieurs configurations d’état peuvent correspondre à une même catégorie. Ainsi, A est connu dans un référentiel secondaire – le système des catégories diagnostiques du DSM –, en ce sens qu’il faut d’abord qu’il soit identifié dans un référentiel primaire – le système des items descriptifs (signes cliniques) du DSM – pour que sa détermination soit possible à l’aide des règles de regroupement. Dès lors que A rejette la nécessité scientifique du référentiel secondaire, il démolit la validité de sa détermination via les catégories du DSM.

Les approches diagnostique et dimensionnelle procèdent d’une démarche théoriquement plus ambiguë. On postule l’existence de classes ou de grandeurs latentes, et on utilise la modélisation psychométrique pour déterminer à la fois le nombre de ces entités latentes (combien de classes ? de dimensions ?) et la position la plus vraisemblable des individus dont on dispose des données – dans quelle classe ? quel point ? Nous soutenons que les déterminations ainsi effectuées ne sont pas falsifiables, tout simplement parce qu’elles reposent sur la postulation d’entités latentes (Vautier, Veldhuis, Lacot, & Matton, in press). Pour vérifier que A se trouve dans la classe 1 par exemple, il faut pouvoir examiner le contenu de la classe 1. Comme c’est une classe latente, on ne peut pas examiner son contenu.

  1. L’évaluation clinique du changement

Le bon sens suggère que l’état de santé d’une personne varie entre le pire et le meilleur. Les scores psychotechniques (Vautier & Gaudron, 2002) utilisés pour décrire l’intensité d’un trouble opérationnalisent une telle intuition mais comme leur statut métrologique est incertain, leur signification scientifique l’est aussi. Nous nous contenterons d’illustrer l’argument qui précède à l’aide d’un exemple. Le Trauma Screening Questionnaire (TSQ) a été élaboré pour identifier les personnes susceptibles de développer un trouble de stress post-traumatique à la suite de l’expérience d’événements traumatiques (Brewin, Rose, Andrews, Green, Tata, McEvedy et al., 2002). Ce questionnaire permet d’identifier A à partir de ses réponses à 10 questions. Sans perte de généralité, considérons que les réponses sont binaires, de sorte que le pire état corresponde à la présence de 10 signes cliniques (i. e., cet état est mesuré par le vecteur 111111111) et que le meilleur état soit mesuré par le vecteur 0000000000. Bien entendu, tout état mesuré par un vecteur dont le nombre de 1 est compris entre 2 et 9 est pire que le meilleur état et meilleur que le pire état. Hormis les extrêmes, considérer que deux états quelconques sont nécessairement comparables dans les termes du pire et du meilleur ne va pas de soi. Par exemple, si A présentait huit signes hier et cinq signes aujourd’hui, son état s’en serait-il véritablement amélioré ? Tout dépend de la définition qu’on donne à l’amélioration et à l’aggravation dans le cadre de ce test. Il est clair que l’apparition et la disparition d’un signe constituent respectivement une aggravation et une amélioration. Dans ce cas, l’observation comme l’évaluation sont unidimensionnelles. Mais lorsqu’on considère 10 signes, l’observation est 10-dimensionnelle, tandis que l’évaluation demeure unidimensionnelle. À quelles conditions ce qui se passe dans le référentiel du test peut-il être formulé de façon unidimensionnelle ? Il suffit que les états observés puissent être totalement ordonnés. Pour que les états puissent être totalement ordonnés, il suffit qu’il existe une correspondance biunivoque (une bijection) entre l’ensemble des états observés et l’ensemble des naturels 0, 1, …, 10. Si cette bijection existe, on peut toujours ordonner les signes de sorte que les vecteurs observés soient compris dans la liste suivante : 0000000000, 1000000000, 1100000000, 1110000000, 1111000000, 1111100000, 1111110000, 1111111000, 1111111100, 1111111110, 1111111111. En pratique, il existe plusieurs états pour un même nombre de 1, ce qui signifie que l’ensemble des états observés est partiellement ordonné (Roberts, 1985). Pour être sûr qu’on a affaire à un ordre partiel, il suffit de vérifier que le nombre d’états observés distincts est supérieur à 11. Considérons à présent A qui passe de l’état 1 à l’état 2 :

Items 01 02 03 04 05 06 07 08 09 10

Test 0 1 1 1 0 1 1 1 1 1

↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓

Retest 0 0 0 0 1 0 1 1 1 1

Son état s’est-il amélioré ? Pas de manière homogène, puisque le signe 5 est apparu. Ainsi, si le psychologue veut rendre compte d’un constat d’amélioration, il doit préciser ce qu’il entend exactement par amélioration, c’est-à-dire se référer à l’ensemble de toutes les transitions d’état possibles et à une partition de cet ensemble de transitions qui spécifie les aggravations, les améliorations et les transitions stationnaires – faute de quoi il est abusif de qualifier l’affirmation d’une amélioration de constat et correct de considérer cette affirmation comme une opinion, fût-elle celle d’un expert.

Une transition d’état est mesurée par un 20-uplet ; il existe a priori 220 = 148576 transitions possibles, qu’on peut représenter dans une matrice de 210 X 210 cellules. On peut définir quatre classes de transitions : les transitions stationnaires (n1 = 1024), les améliorations (n2 = 58025), les aggravations (n3 = 58025), et les transitions bidirectionnelles (n4 = 931502), qui représentent environ 89% des cas possibles. Les changements d’état bidirectionnels représentent (seulement) 41% des cas d’un échantillon de 372 adultes haïtiens ayant vécu le séisme de janvier 2010 [4] .

  1. La démonstration d’une influence

Parmi ces adultes, 169 ont bénéficié d’une prise en charge psychothérapeutique entre le test et le retest ; la prise en charge consistait en quelques séances d’EMDR (Eye Movement Desensitization and Reprocessing, Shapiro & Forrest, 2005). Environ 48% des cas de ce groupe présentent une amélioration au retest, tandis que cette proportion ne dépasse pas 22% dans le groupe des adultes n’ayant pas bénéficié de la prise en charge. Que peut-on en déduire ?

Examinons la proposition « La prise en charge a été efficace ». Efficace pour qui ? Si on raisonne sur un processus thérapeutique hypothétique, encore faut-il en connaître le support. Kurt Danziger (1987) a méticuleusement montré que la psychologie expérimentale contemporaine s’est constituée en évitant la question. C’est aussi le cas pour la psychologie quasi-expérimentale (Cook & Campbell, 1979). Essayons d’envisager un processus causal en faisant abstraction de son support : la psychothérapie provoque une amélioration de l’état psychologique (tel qu’il est mesuré par le TSQ). Comment vérifier une telle proposition si on s’interdit de l’appliquer à quiconque ? Si on lève cet interdit, alors force est de constater qu’il existe des personnes ayant bénéficié de la thérapie et dont l’état ne s’est pas amélioré. Donc il est faux que la thérapie provoque l’amélioration de l’état (si c’était vrai, la proportion observée serait 100%).

On peut alors suggérer une version probabiliste de la causalité : il est probable que la thérapie provoque l’amélioration de l’état. Une telle proposition ne nécessite pas de vérification empirique pour être acceptée, puisqu’elle se borne à énoncer une possibilité. Poursuivons autrement dans la voie probabiliste : l’état psychologique d’une personne quelconque est plus probablement amélioré lorsqu’elle bénéficie de la thérapie que lorsqu’elle n’en bénéficie pas. Impossible à vérifier, puisqu’il faudrait essayer avec et sans la thérapie, comme on jetterait un dé autant de fois qu’on le souhaite dans une condition 1 et dans une condition 2 pour examiner les deux distributions de fréquences des événements pairs et des événements impairs. Nous tenons là ce qui nous paraît être la condition nécessaire à une explication causale : pour attester qu’une condition influence une distribution de probabilité, il faut pouvoir manipuler l’état d’un être dans le référentiel d’un couple de variables, la première étant dite indépendante (ses modalités étant ici avec vs sans thérapie), la seconde dépendante (ses modalités étant ici l’amélioration vs l’absence d’amélioration). La notion de distribution de probabilité d’une amélioration de l’état de A conditionnellement à la condition « avec » ou « sans » thérapie est absurde. C’est pourquoi il est tentant de négliger les particularités des personnes observées, c’est-à-dire de raisonner comme si les personnes observées étaient identiques concernant tous les aspects qui n’entrent pas en compte dans la connaissance qu’on en a dans le référentiel de l’étude. Dans le référentiel de l’étude, on connaît les personnes par deux caractéristiques, à savoir le fait qu’elles ont suivi ou pas la thérapie (T / nonT), et le fait que leur état s’est amélioré ou pas (+/-). Cette clause d’identité – ceteris paribus – est évidemment fausse et donne lieu à l’obligation méthodologique de la randomisation (5 [5] ). Mais la randomisation est efficace de manière asymptotique, c’est-à-dire lorsqu’on s’intéresse à l’espérance de distributions conditionnelles (i.e., aux distributions conditionnelles moyennes). Lorsqu’on étudie un seul échantillon, la randomisation ne garantit pas l’élimination de l’effet des « variables parasites ». Donc, les pourcentages d’amélioration ne peuvent pas être interprétés sérieusement comme des estimations de la probabilité que A voit son état s’améliorer sachant qu’il bénéficie ou ne bénéficie pas d’une thérapie. Les résultats observés ne sont pas concluants pour une interprétation causale. À nos yeux, une interprétation causale nécessite que les observations suggèrent un fait général (Vautier, 2011a), c’est-à-dire une proposition dont la forme est une implication logique. Ici, les fréquences conditionnelles excluent qu’il existe un fait général dans le référentiel de l’étude, et attestent au contraire de ce que tout y est possible. La question qui se pose alors est de savoir s’il est raisonnable d’espérer découvrir les conditions qui garantiraient une amélioration, compte tenu de l’extrême complexité des événements qui se produisent dans le référentiel de la variable dépendante (ce sont des auto-évaluations, Tourangeau, Rips, & Rasinski, 2000).

  1. L’objectivité

L’exemple de l’étude de la distribution des événements dans le référentiel (T /nonT) et (+/-) éclaire directement la question de l’objectivité. Puisque nous avons ouvert cette réflexion en marchant sur les traces de Canguilhem qui demandait aux psychologues ce qu’est la psychologie, nous essaieront de formuler notre propre réponse en précisant le type d’objet qu’elle nous paraît être à même de construire. On trouve chez Wilhem Windelband (2002) une formulation particulièrement lucide du problème : « […] nulle connaissance ne peut se rapporter à des objets qu’elle n’a pas elle-même conceptuellement déterminés » (p. 222). Gilles-Gaston Granger (1995) en exprime les conséquences en terme de mathématisation : La connaissance scientifique de ce qui relève de l’expérience consiste toujours à construire des schémas ou modèles abstraits de cette expérience, et à exploiter, au moyen de la logique et des mathématiques, les relations entre les éléments abstraits de ces modèles, de façon à déduire finalement des propriétés correspondant avec suffisamment de précision à des propriétés empiriques directement observables (p. 70). Si la psychologie prétend être une science empirique, elle doit d’abord être claire sur les conditions de la connaissance phénoménale des êtres auxquels elle s’intéresse. Cette question est celle de la construction des variables. Les connaissances empiriques sont conditionnées par les référentiels de description que se donnent les psychologues (Vautier, 2011a; 2011b), c’est-à-dire les modalités des variables. Il s’agit d’une part de décrire l’état d’un être (d’une personne pour le psychologue) dans un ensemble d’états possibles, et de préciser comment il est possible de vérifier une proposition descriptive de la forme X(A)  α, où α est un sous-ensemble strict d’états possibles dans le référentiel de la variable indépendante X. Ensuite, la question est de savoir comment ce qu’on a appris grâce à l’observation (peu importe son caractère expérimental) permet de prédire quelque chose de valide et de pertinent à propos de quiconque : X(A) ∈ α ==>  Y(A) ∈ β, où β est un sous-ensemble strict du référentiel de la variable dépendante Y.

Il existe des propositions descriptives dont l’objectivité paraît discutable. Par exemple, considérons un des critères de l’épisode dépressif majeur : Humeur dépressive présente pratiquement toute la journée, presque tous les jours, signalée par le sujet (p. ex., se sent triste ou vide) ou observée par les autres (p. ex., pleure) (American Psychiatric Association, 2003, p. 411). Supposons qu’on filme A et qu’on présente le film à plusieurs juges en leur demandant de juger la validité de la proposition en ces termes : A présente cet état : vrai, faux, je ne sais pas. Le problème qui se pose est qu’il est impossible de connaître l’état objectif de A sans recourir à la subjectivité de celui qui prétend à cette connaissance objective. Comme par définition la connaissance est subjective, le seul critère d’objectivité qui nous paraît viable est celui de l’interchangeabilité des juges. Il suffit que le pourcentage de réponses « vrai » soit différent de 0 ou 100% pour que la détermination de l’état de A ne soit pas objective, puisqu’alors il est établi que les juges ne sont pas interchangeables. Dans ce cas, le problème est de savoir si on doit renoncer à la possibilité d’un savoir scientifique de A étant donné le cadre de description qui lui est apposé, ou bien si on doit disqualifier les juges minoritaires. Si une majorité est suffisante d’un point de vue politique, nous doutons qu’elle le soit d’un point de vue scientifique, parce qu’alors la vérité deviendrait une affaire de majorité et donc de politique. Si une minorité existe, c’est qu’il y a un problème dans la référentialisation des êtres. Supposons que l’interchangeabilité des juges soit constatée pour n juges travaillant dans un certain référentiel de description. En fait, l’interchangeabilité n’est jamais établie, puisqu’on ne peut assurer qu’aucun nouveau juge ne se trouverait pas en désaccord avec les autres. Ce problème est celui de l’induction. À partir du moment où on est habitué à voir les objets qu’on lâche tomber par terre, on est convaincu que le prochain objet qu’on va lâcher va tomber. Les lois scientifiques sont des généralisations corroborées par l’expérience et il est impossible de démontrer qu’elles sont vraies. La vérité des observations, que Karl Popper (1973) appelle des propositions de base, est finalement une affaire non pas de logique mais de consensus. Les sciences empiriques reposent sur une politique de consensus.

Une fois que le consensus est établi sur ce qui se passe dans un référentiel lorsqu’on observe des êtres, quels objets le psychologue peut-il espérer connaître ? Nous avons soigneusement distingué, dans notre terminologie, les êtres et les objets. C’est que les êtres ne sont pas des objets scientifiques. Un référentiel de description est un concept scientifique, qui peut s’avérer plus ou moins fécond pour la connaissance de certains objets. Un premier type d’objet est un échantillon d’êtres. Ainsi par exemple, le psychologue qui s’intéresse à ce qui se passe dans le référentiel (T /nonT) X (+/-) connaît deux échantillons de personnes. Il est capable de les décrire par la fréquence des cas améliorés. Il peut aussi jouer avec les probabilités, s’il trouve qu’il est intéressant de se ramener au schéma du tirage au sort dans une urne. Il peut aussi s’intéresser à la question de savoir si d’autres échantillons se laissent décrire d’une manière similaire (c’est l’inférence statistique). D’un point de vue pratique, si les fréquences observées sont régulières, c’est-à-dire si la fréquence des événements de type (+) est (presque) toujours supérieure lorsqu’on considère un échantillon de type (T) par opposition à un échantillon de type (nonT), il peut utiliser cette connaissance pour généraliser la prise en charge psychologique à un maximum de personnes concernées. Le psychologue est alors un spécialiste des échantillons, comme le sont les démographes, les sociologues, les économistes et les épidémiologistes. Dans ce cas, la psychologie scientifique se fond dans les sciences sociales et, en admettant l’opacité de A, refuse d’énoncer ce qui le détermine de manière pronostique, au nom de cette vérité statistique que tout est possible dans le référentiel de description. Si la psychologie scientifique soutient que son domaine de compétence est A, alors il est nécessaire qu’elle découvre des référentiels capables de « piéger » des faits généraux, afin de fonder ses propositions pronostiques à propos de A sur la généralisation, toujours précaire, de ces faits généraux. Nous voudrions insister sur le caractère à la fois banal et besogneux de la recherche de généralité en science, en citant Henri Atlan (1986) : « Il n’y a de vérité que scientifique », disait Bertrand Russell. Mais en même temps, procédant du particulier au général, la recherche de cette vérité se veut modeste, limitée par les conditions d’application des méthodes rigoureuses qu’elle se donne, à des objets qui leur sont adaptés, et pour cela soigneusement circonscrits et définis (p. 11). Dans cette perspective, la tâche du psychologue qui examine le savoir de la psychologie consiste tout simplement à se demander quels faits généraux il se trouve en mesure d’affirmer.

  1. Conclusion

Partant d’une réflexion liminaire sur l’exigence de responsabilité scientifique qui incombe au psychologue, nous avons défini une attitude critique, nécessaire à l’examen normatif des connaissances dites scientifiques de la psychologie. Nous avons alors essayé de préciser les conditions qui suffisent pour camper les affirmations dans le domaine scientifique, à savoir le fait de disposer de référentiels de description cotation-objectifs, ainsi que d’une théorie (une classification) des types d’objet qui peuvent en émerger : échantillons de personnes, faits généraux. Si la responsabilité scientifique du psychologue est une obligation éthique, elle nécessite une capacité critique qui repose sur la distinction entre recherche de vérité et recherche de conformité épistémique. Cette attitude relève typiquement d’une formation philosophique et nous nous appuierons pour conclure sur un autre philosophe (Alain, 1956) : […] et penser, selon mon opinion, c’est toujours dans le premier moment faire non de la tête, et même fermer les yeux à l’évidence, comme on dit, afin de se donner le temps de la réflexion. D’où il suit que les penseurs passent aisément pour des obstinés et des négateurs. Contrariants aussi, en ce sens qu’ils nient volontiers, et d’abord sans autre raison, ce que les moutons de doctrine se mettent à bêler tous ensemble, avec le souci de se mettre bien d’accord (p. 140). L’analyse qui précède nous conduit à conclure que l’efficacité institutionnelle du psychologue peut se fonder scientifiquement de deux manières. Si le psychologue doit contribuer à la gestion des masses de personnes, il peut et doit s’appuyer sur les statistiques. Dans ce cas, son éthique est celle du bien collectif et il lui appartient de l’élaborer d’un point de vue non pas psychologique, mais politique. Si le psychologue doit contribuer au bien d’une personne particulière, alors il est probable que ses connaissances scientifiques le conduisent à affirmer, dans la presque totalité des situations auxquelles il sera confronté, l’indétermination objective de cette personne dans les grilles de la connaissance scientifique dont il dispose. Dans ce cas, son éthique est celle de la liberté fondamentale dont jouit cette personne pour se déterminer elle-même dans la perspective de son devenir.

____________________

Notes

  • [1]↑– Est « politique » ce qui relève du pouvoir « non violent » de quelqu’un sur un autre. « L’injustice […] résulte d’un pouvoir d’une personne sur une personne ; pouvoir de contraindre ou pouvoir d’empêcher. Or, ce pouvoir est politique par définition, dès qu’il n’est plus la violence individuelle pure et simple » (Alain, 1956, p. 141).
  • [2]↑– Je juge que telle proposition est vraie (1), fausse (2), ou bien que je ne sais pas si elle est vraie ou fausse (3). On pourrait aussi envisager une approche plus nuancée du rapport au savoir : il s’agirait d’une approche qui permettrait au psychologue de mesurer, au sens quantitatif du terme (Michell, 2003), sa croyance en la vérité de P, mais nous ignorons ce qu’un tel mesurage pourrait objectivement impliquer pour A, puisqu’il déterminerait non pas A en tant que tel, mais la singularité du rapport du psychologue à A.
  • [3]↑– « Nous insisterons sur ce fait qu’on ne peut se prévaloir d’un esprit scientifique tant qu’on n’est pas assuré, à tous les moments de la vie pensive, de reconstruire tout son savoir » (Bachelard, 1983, p. 7).
  • [4]↑– Les données ont été collectées par Jude-Mary Cénat.
  • [5]↑– La répartition des personnes dans les conditions expérimentales doit être telle que tout participant a une chance sur deux d’être affecté à une condition expérimentale donnée.

____________________

Références

Alain (1956). Propos. Paris : Gallimard.

American Psychiatric Association (2003). DSM-IV-TR : Manuel diagnostique et statistique des troubles mentaux (4 ed.). Paris: Masson.

Atlan, H. (1986). À tord et à raison : intercritique de la science et du mythe [Enlightenment to enlightenment: Intercritique of science and myth]. Paris : Éditions du Seuil.

Bachelard, G. (1983). La formation de l’esprit scientifique (12th ed.). Paris: Vrin. (Original work published 1938).

Borsboom, D. (2008). Psychometric perspectives on diagnostic systems. Journal of Clinical Psychology, 64, 1089-1108.

Brewin, C. R., Rose, S., Andrews, B., Green, J., Tata, P., McEvedy, C., Turner, S., & Foa, E. B. (2002). Brief screening instrument for post-traumatic stress disorder. British Journal of Psychiatry, 181, 158-162.

Canguilhem, G. (1958). Qu’est-ce que la psychologie ? Revue de Métaphysique et de Morale, 1, 12-25.

Chalmers, A. (1999). What is this thing called science ? (3rd ed.). Maidenhead : Open University Press.

Cook, T. D., & Campbell, D. T. (1979). Quasi-experimentation: Design & analysis issues for field settings. Boston : Houghton Miffin Compagny.

Danziger, K. (1987). Statistical method and the historical development of research practice in American psychology. In L. Krüger, G. Gigerenzer, & M. S.

Morgan (Eds.), The probabilistic revolution, Vol. 2: Ideas in the sciences (pp. 35-47). Cambridge : MIT Press.

Granger, G.-G. (1995). La science et les sciences (2 ed.). Paris: Presses Universitaires de France.

Johnson, W. B., Barnett, J. E., Elman, N. S., Forrest, L., & Kaslow, N. J. (2012). The competent community: Toward a vital reformulation of professional ethics. American Psychologist, Advance online publication.

Lilienfeld, S. O. (2010). Can psychology become a science? Personality and Individual Differences, 49, 281-288.

Michell, J. (2003). Measurement: A beginner’s guide. Journal of Applied Measurement, 4, 298-308.

Popper, K. R. (1973). La logique de la découverte scientifique. Paris : Payot.

Roberts, F. S. (1985). Measurement theory, with applications to decision-making, utility, and the social sciences. Reading, MA: Addison-Wesley.

Shapiro, F., & Forrest, M. S. (2005). Des yeux pour guérir : EMDR, la thérapie pour surmonter l’angoisse, le stress et les traumatismes. Paris : Seuil.

Soler, L. (2000). Introduction à l’épistémologie. Paris : Ellipes.

Tourangeau, R., Rips, L. J., & Rasinski, A. (2000). The psychology of survey response. New York : Cambridge University Press.

Trendler, G. (2009). Measurement theory, psychology and the revolution that cannot happen. Theory & Psychology, 19, 579-599.

Vautier, S. (2011a). How to state general qualitative facts in pychology? Quality and Quantity, Advance online publication. doi.org/10.1007/s11135-011-9502-5.

Vautier, S. (2011b). The operationalisation of general hypotheses versus the discovery of empirical laws in Psychology. Philosophia Scientiae, 15, 105-122.

Vautier, S., & Gaudron, J. P. (2002). Intégrer l’erreur de mesure dans l’interprétation quantitative des scores individuels. Pratiques Psychologiques, 2, 97-108.

Vautier, S., Veldhuis, M., Lacot, E., & Matton, N. (in press). The ambiguous utility of psychometrics for the interpretative founding of socially relevant avatars. Theory & Psychology.

Windelband, W. (2002). Qu’est-ce que la philosophie et autres textes. Paris : Vrin.