Evaluation, psychothérapie et psychanalyse
Extraits de l’article : Evaluation, psychothérapie et psychanalyse : réflexions et perspectives éthiques, épistémologiques et scientifiques
Par A. Blanc
Pour citer cet article :
Blanc A. (2018). Evaluation, psychothérapie et psychanalyse : réflexions et perspectives éthiques, épistémologiques et scientifiques, In Analysis, 2, 163-170.
Résumé :
Le domaine de l’évaluation des psychothérapies est devenu un champ de recherche à part entière en France suite au coup de tonnerre qu’a représenté le rapport de l’Inserm (2004) proposant un état des lieux de la littérature scientifique internationale sur le sujet. Bien que critiquable à de nombreux égards, ce rapport aura eu le mérite d’amener les praticiens du terrain et les chercheurs, psychanalystes ou non, à se positionner et à débattre de cette question scientifique et politique. Souvent critiquée, l’approche du modèle médical appliquée aux psychothérapies l’a rarement été d’un point de vue épistémologique et scientifique. A savoir, apporte-t-il une hausse des connaissances et du savoir concernés ? Partant d’une réflexion épistémologique sur les critères scientifiques retenus pour réaliser ce rapport, nous questionnerons l’usage du modèle médical pharmaceutique et statistique en sciences humaines. Nous proposerons en fin d’article quelques perspectives et considérations afin de penser autrement l’évaluation clinique, en déplaçant la question de la réfutabilité, de la reproductibilité ou des validités interne et externe à une clinique de terrain incluant la subjectivité, la relation thérapeutique, les dynamiques transférentielles et l’adéquation entre les objectifs des dispositifs thérapeutiques évalués et la méthodologie évaluative, en remettant au centre de l’évaluation le patient lui-même comme référentiel-témoin de la démarche évaluative elle-même à travers quelques exemples.
____________________
Introduction
L’évaluation des pratiques psychothérapiques, qu’elles soient psychanalytiques ou non, fait débat, résistance ou engouement sous la pression des demandes – parfois paradoxales – et des exigences budgétaires de plus en plus soumises aux évaluations de tout bord. Estimé à plusieurs centaines de formes et types de « thérapies » (Parot et al, 2011), les débats – houleux – touchent autant à la forme et aux objectifs des prises en charge (à savoir, laquelle serait la plus efficace), qu’à une réflexion sur l’épistémologie et la scientificité même des évaluations. Croiser cette réflexion à celle inhérente aux processus thérapeutiques et à leurs effets nous semble essentiel et manque que trop fréquemment dans les études évaluatives se rabattant souvent sur des critères dits « dominants » de scientificité et originaires de champs épistémologiques variés, et non nécessairement adaptés ou concordants à la démarche psychothérapique – qui plus est psychanalytique. A ce titre, nous souhaitons dans cet article questionner et débattre des méthodes évaluatives en interrogeant leur scientificité, ou en tout cas, l’adéquation entre l’objet d’étude et les moyens mis en œuvre pour l’étudier.
L’évaluation, faussement stéréotypée et rabattue du côté du chiffre et du quantitatif, est également au cœur même de la pratique analytique et des attendus, conscients et inconscients, de toute rencontre à visée psychothérapique : quelque chose en est attendu ; que cela soit un « mieux être », une réduction-suppression symptomatique, ou encore une meilleure connaissance de soi- même. Nous ne nous engageons pas, ni ne recevons un patient, un analysant, de manière anodine ou rigidifiée sur le postulat de la guérison de surcroît qui est davantage à penser au niveau de la méthode et du positionnement technique que de l’éthique analytique (et qui ne se résume pas nécessairement au symptôme mais ouvre également aux dimensions fonctionnelles et psychiques des sujets). En effet, ne pas viser de manière directe la suppression des symptômes, au sens psychiatrique du terme, en proposant la libre association des idées, ne fait pas disparaître la réalité de l’attente d’un « mieux-être », y compris de surcroît, et ce, en incluant dans la théorie de la méthode, le transfert négatif, les résistances et les régressions inclus dans le processus thérapeutique lui-même.
Cependant, les hiatus entre les attendus du thérapeute, des patients ou du politique peuvent paraître, de prime abord, infranchissables. En quoi, une évaluation quantifiée pourrait rendre compte de la rencontre psychothérapique ? Pour autant, ne pas prendre en compte la question concrète du symptôme, comme celle de la demande, pourrait-il être au cœur d’une éthique soignante et psychothérapique? Comment concilier l’objet de l’évaluation à celui de la prise en charge sans en soumettre un au service de l’autre à travers un argumentaire autour de la scientificité, sans oublier la réflexion épistémologique, est tout autant un enjeu de société, que d’ouverture au débat de la psychanalyse avec les sciences connexes, sans la considérer uniquement comme un objet inatteignable ou intransmissible à celui qui n’en aurait pas fait l’expérience.
Plus précisément, participer au débat, à ses controverses, compromis et issues, ne pose pas comme problématique centrale une contestation de L’évaluation qui existe et existera toujours, mais impose de prendre un peu de recul et de réfléchir à l’épistémologie même de l’évaluation des prises en charge à visée soignante et à son histoire dans le domaine des sciences. Comment, pourquoi et sur quoi les méthodes et résultats actuels et déjà produits portent-ils ? En quoi ces choix opérés bien souvent hors champ scientifique psychanalytique font « débat » si nous prenons un angle épistémologique ? Les résultats et méthodes sont-ils, peuvent-ils, être légitimes et adéquats à leur objet d’étude ? Si nous suivons Kuhn (1962), nous pourrions nous demander si la productivité d’un savoir sur L’évaluation partant des travaux actuels et dominants autour de la scientificité de l’évaluation et de la psychanalyse permettent-ils de manière pertinente de rendre compte de l’objet d’étude de l’évaluation qui, nous semble-t-il, se doit de rencontrer l’objet de la méthode psychothérapique évaluée. Ainsi, nous allons nous interroger de manière critique, non pas sur les « résultats» des évaluations uniquement, mais bien sur la production et les mécanismes de choix opérés dans les méthodologies évaluatives, leur scientificité et l’interprétation de leurs résultats afin de dégager, au fil de notre argumentaire, des points d’appui sur les conditions mêmes pouvant rendre concordant aux objets d’étude la question de l’évaluation, sortant d’un tout quantitatif et des impasses d’un modèle primairement statistique et médical, y compris si l’on vise à s’adresser aux décisionnaires des politiques de soin.
Le rapport de l’INSERM (2004) : contexte historique et méthodologique
« (. . .) les instruments développés pour étudier les changements symptomatiques seraient alors adaptés aux examens de toute forme de psychothérapie» (INSERM, p. 7)
De nos jours, aborder le sujet de L’évaluation des psychothérapies semble ne pouvoir se réaliser sans questionner d’abord la démystification du tristement célèbre rapport INSERM comme si rien n’avait existé avant et que le monde français basculait suite à l’effet « bombe » de la découverte des études contrôlées randomisées (ECR) dont le rapport prônait la supériorité scientifique de cette méthode évaluative, au détriment des autres. Sans répéter les nombreuses critiques établies, retenons tout d’abord qu’avant de questionner les limites méthodologiques et épistémologiques d’une étude, il convient de les mettre en perspective avec les objectifs mêmes de l’étude en question. Ainsi, il est important de rappeler que ce rapport n’est ni un protocole évaluatif, ni même une méta-analyse : il s’agit d’un état des lieux d’une revue de littérature sélectionnée selon le modèle médical (Ciadella, 2007). En ce sens, tout en portant mal son nom (n’évaluant en propre aucune approche), ce rapport atteste non pas d’une supériorité thérapeutique d’une quelconque psychothérapie sur une autre, mais bien d’un manque de recherches en psychanalyse correspondant aux critères retenus par le groupe d’experts missionnés par le ministère de la Santé dans le cadre du plan Santé Mentale de 2001 pour répondre « scientifiquement », grâce à la littérature internationale, à la question de l’efficacité des différentes approches psychothérapiques.
À cette fin, légitime tant politiquement qu’éthiquement, le groupe d’experts se donne comme objectif de s’intéresser aux références spécifiques des approches, à leurs données dans la littérature, à leur comparaison, à leur mise en lien pathologie par pathologie et bien sûr, à leurs résultats et méthodes d’évaluations aboutissant, selon leurs critères, pour 16 troubles rencontrés en psychiatrie (et diagnostiqués avec le DSM), à la conclusion que « l’efficacité de la thérapie pouvait être considérée comme établie pour 15 d’entre eux avec la thérapie comportementale et cognitive, pour 5 avec la thérapie familiale, et pour un seul avec la psychanalyse » (Guelfi, 2009, p. 93). Regardons de plus près ces critères retenus autour de la preuve scientifique « établie».
En tout premier lieu, les experts auront questionné la possibilité même d’une évaluation d’une psychothérapie qui, par définition, met en scène des êtres humains, du relationnel, du subjectif. Le « subjectif » étant un problème dans leur démarche visant à une objectivité scientifique médicale, ils ont décidé de suivre les recommandations de l’American Psychiatric Association (APA), ce qui était pertinent à l’époque, l’APA ne prônait pas encore un retour à l’étude intensive de cas. En suivant ces recommandations, les experts choisissent de soutenir la démarche ayant transposé le modèle de l’evidence based medicine (EBM) à l’empirically supported psychotherapy (ESP) ayant conduit, dans le monde anglo-saxon, à un financement et une domination quasi-exclusive des recherches appliquant le modèle des ECR adoptant comme critère de scientificité , à la suite des travaux de Popper (1985), la construction de méthodes respectant la reproductibilité, la réfutabilité et les validités interne et externe des hypothèses du domaine médical pharmaceutique comme critère scientifique permettant d’éliminer les « biais » liés au subjectif et à la relation thérapeutique, pourtant au cœur du travail psychothérapique.
Ainsi, tout en repérant qu’évaluer des « thérapies d’inspiration psychanalytique à l’aide d’instruments développés dans un cadre purement symptomatique impose une certaine méfiance» (INSERM, 2004, p. 7), les experts choisissent d’utiliser seulement des articles publiant des ECR et des méta-analyses préconisant ce genre d’outils pour évaluer la psychanalyse ! Le paradoxe est de taille. Imaginons, par exemple, évaluer une thérapie comportementale avec un outil créé pour repérer les mécanismes de défenses inconscients du sujet, sur lesquels, une thérapie comportementale n’agit pas en premier lieu : le scandale paraîtrait énorme, l’inadéquation flagrante. . . L’inverse, beaucoup moins. En transposant le modèle médical centré sur le résultat isolé entre une molécule et un symptôme, il devient pertinent de chercher à étudier essentiellement le lien entre thérapie et réduction symptomatique, excluant de la réflexion l’étude du processus thérapeutique lui-même.
Une réflexion épistémologique supplémentaire se profile. Etudier la question des effets d’une psychothérapie impose de proposer une méthodologie adéquate au phénomène étudié : à savoir, rendre compte d’une pratique relationnelle non médicamenteuse. Que les psychothérapies appartiennent, pour l’ensemble, au domaine médical aux Etats-Unis, et également au domaine des sciences humaines en France, n’est pas sans poser ici un paradoxe de taille. Il est concordant épistémologiquement d’étudier les effets selon la scientificité médicale d’un côté, là où cela semble aberrant de retirer l’étude du processus relationnel de l’autre. . . La différence fondamentale entre les sciences ne tient pas tant de leur objet d’étude qu’à leur méthode et forme d’objectivations utilisées pour appréhender le phénomène qui les intéresse (Windelband, 1905). Ainsi, appliquer une méthodologie médicale transposée à l’évaluation revient à étudier médicalement le phénomène observé et non en termes de sciences humaines. Nous travaillons ainsi avec l’objet « effet » de deux points de vue, sans doute complémentaires mais pas nécessairement compatibles en termes de référentiel scientifique. Malgré l’existence de ce paradoxe, poursuivons notre réflexion et allons du côté de cette transposition et décortiquons de manière critique les connaissances obtenues – et leur méthodologie – afin d’ouvrir à d’autres perspectives évaluatives et à d’autres « effets thérapeutiques ».
Les ECR : une transposition du modèle médical pharmaceutique centré sur la réduction symptomatique
La preuve liée à l’EBM rencontrant les modèles mathématiques statistiques prônés comme idéal de neutralité et d’objectivité. La dérive était simple à suivre lorsque ce modèle s’est transposé aux thérapies psychiques. Évaluer l’effet d’un dispositif revenait à évaluer son effet sur un trouble, sur l’efficacité du dispositif sur le trouble et non sur l’efficience de son processus, entraînant un biais majeur d’interprétation dans la connaissance scientifique, réduisant toutes les approches thérapeutiques à un même objectif princeps, indépendamment du subjectif et du relationnel, celui de la réduction symptomatique le plus rapidement et « efficacement » possible. Ce point de vue entraîna un biais méthodologique fort : L’évaluation est centrée sur un symptôme isolé et isolable des composantes relationnelles, traitable de manière « neutre » statistiquement, comme l’effet d’un médicament sur un trouble. Sans rentrer dans un listing exhaustif de toutes les critiques d’ores et déjà bien documentées sur les ECR, y compris dans le domaine médical (p.e. Kazdin, 1982 ; Fishman, 1999, 2000, Thurin, 2006, 2017), illustrons notre propos en étudiant la manière dont les composantes subjectives et relationnelles sont « neutralisées » par le principe de la méthode en double insu inhérente à l’EBM et aux ECR. Pour ce faire, l’expérience laborantine propose une méthodologie visant à étudier et mesurer uniquement l’effet de la molécule soustrait de son effet placebo ; effet placebo incluant de fait la composante relationnelle et suggestive et attestant, par le négatif, de l’important effet de cette dimension qui, à défaut d’intéresser les chimistes devrait être au cœur des questionnements des psychothérapeutes et chercheurs en évaluation. Cette méthode en double insu entraîne que ni le médecin donnant la molécule testée, ni le patient la recevant ne savent si la molécule prise est active ou non. Il va de soi que nous ne pouvons demander à un thérapeute de ne pas savoir quelle méthode il utilise ou à un patient de ne pas savoir s’il fait un travail thérapeutique ou non. La méthode en double insu et « l’objectivité» sont déplacées et transposées dans la méthodologie de recherche même où les chercheurs s’autorisent, éthiquement et déontologiquement, à placer dans des groupes « liste d’attente » ou échanges en face-a`- face « non thérapeutiques » (sic. . .) des patients souffrant du même unique trouble que ceux suivis dans l’approche évaluée. Pour respecter ce double insu et ne pas créer un biais de « choix » subjectif, les patients sont répartis aléatoirement dans des groupes de 20 à 40 participants (incluant une comparaison avec un groupe témoin) afin d’écarter les effets dus précisément à la rencontre et les données sont traitées statistiquement pour ne pas inclure d’interprétation subjective. . . alors qu’en mathématiques, le calcul doit être maîtrisé et traduit en langage verbal pour être partagé et justement interprété pour avoir un sens.
Notons que le regroupement de ces personnes dans des groupes à très grand effectif vise à lisser la singularité de chaque cas ayant un trouble dit homogène sur une durée très limitée afin d’éviter également l’effet lié au temps. Par ailleurs, rappelons que ces études recrutent leurs « patients » parmi « les étudiants de l’université ou par la presse et non pas sur des populations cliniques traitées dans les lieux cliniques » (Thurin, 2006, p. 578). . . ce qui n’est pas sans questionner sur la pertinence même de ce type d’étude pour l’amélioration des prises en charge : peut-on même parler ici de patient ?
Le plus surprenant dans cette démarche est peut-être que l’argumentaire du rapport INSERM conclut que les approches en situation réelle, les études de cas, sont tout autant essentielles à la connaissance scientifique et que les ECR ne peuvent s’utiliser qu’en complément des études qualitatives et épistémologiques. Pour autant, sous couvert de « hiérarchie » de l’évaluation par la preuve, les experts n’incluront dans leur rapport que des ECR et méta-analyses, excluant toutes les études non chiffrées n’appliquant pas la transposition de la méthode en double insu telle que nous venons de l’expliciter, excluant de l’évaluation tout patient souffrant de troubles complexes, multifactoriels et pourtant représentant bien davantage – voire uniquement – la réalité des pratiques cliniques et thérapeutiques de terrain.
Des ECR aux méta-analyses : de plus grandes cohortes pour de plus grands résultats?
Réduire la subjectivité des chercheurs
Les chercheurs se sont rapidement aperçus que les ECR présentaient des biais et des limites et que les choix d’outils, le manque de comparaisons possibles de certains sujets recrutés (patients, étudiants, etc.) ou de certaines données posaient des questions scientifiques sur la significativité des résultats (graal des recherches portant sur la « preuve ») ou plutôt sur leur interprétation, sur la générabilité possible des chiffres obtenus sur des cohortes gigantesques, résumant les débats à un « savoir » qui serait vérité et contre-vérité, alors qu’un domaine scientifique, quel qu’il soit, reste un état actuel de la connaissance d’un phénomène donné appréhendé, appréhendable par une méthodologie proposée.
Prenons un exemple. La synthèse d’ECR réalisée par Eysenck (1952) concluait à un effet inexistant des psychothérapies en comparant des études rendant compte de l’évolution spontanée de problématiques névrotiques par rapport à celles de patients en thérapies ou suivis par un médecin « classique ». Suite aux critiques majeures réalisées par Garield et Bergin (1978) invalidant la synthèse (études non comparables, groupe témoin arbitraire, etc.), plusieurs autres études auront fait l’effet d’une bombe (p.e. Sloane et al., 1975a et b ; Luborsky et al. 1975) sans réussir à amener une véritable progression du domaine scientifique de l’évaluation (se contredisant chacune) tout en cherchant de manière abusive à conclure à une généralisation possible de leur étude alors qu’une thérapie en laboratoire n’est aucunement transposable en situation clinique de terrain.
Cette méthodologie évaluative tente d’abraser, nous l’avons vu, la subjectivité tant du thérapeute que du chercheur. Cependant, celle du chercheur reste convoquée dans la réalisation même des études (cohorte, choix des sujets, outils retenus, types de thérapies testés, méthode d’analyse retenue, interprétation des résultats, etc.) comme dans les choix d’études sélectionnées pour la construction des méta-analyses visant à réduire les biais subjectifs des études tentant d’ores et déjà de « supprimer » l’effet de la subjectivité en psychothérapie. Au-delà de la gymnastique d’esprit que demande ce propos afin de se rendre compte de la non- pertinence épistémologique de la manière d’obtenir des connaissances scientifiques par rapport à l’objet étudié, prenons un nouvel exemple d’erreur du rapport INSERM avec l’ECR de Paul (1967).
Cette étude compare 3 groupes composés d’étudiants suivis en thérapie pour des difficultés au niveau social (déficit en compétence sociale et en anxiété sociale avec peur de parler en public) et un groupe témoin. Les thérapies comparées sont la thérapie comportementale de désensibilisation systématique de Wolpe (1961), l’Insight-Oriented Psychotherapy et une thérapie « placebo » de simple « soutien relationnel » (sic. . .) pendant que le groupe témoin, composé d’étudiants avec le même profil, ne recevait pas de soin. Sans surprise, les résultats (calculés uniquement en termes de significativité et sans aucune taille d’effet permettant de qualifier l’ampleur du changement) conclurent à une supériorité de la thérapie comportementale, développée, créée et testée pour ce type de trouble, avec des outils d’évaluations retenus pour mesurer uniquement les progrès obtenus sur la « compétence sociale ». Recruter des personnes souffrant d’une difficulté à parler en public, proposer une thérapie centrée sur le « parler en public » et mesurer ensuite la capacité à parler en public revient à prouver une efficacité intéressante pour la thérapie comportementale certes, mais est-ce pertinent de la comparer à d’autres formes de thérapies n’ayant pas nécessairement les mêmes objectifs ou visées thérapeutiques ?
De plus, le rapport de l’INSERM, tout en passant à côté de nos précédentes remarques et de leur implication, expose la décision qui a été prise d’affilier la thérapie centrée sur l’insight à une psychanalyse « générale », alors que la méthodologie de prise en charge des patients de l’étude a été celle de la thérapie comportementale, à savoir : les patients étaient suivis par groupe de 3 pour 5 séances uniquement ! Ce qui n’est ni la méthode, ni le cadre proposé des autres formes de prise en charge. De plus, Carson et al. (2007) précise que cette thérapie centrée sur l’insight lorsqu’elle est de court terme est référée au modèle des fausses croyances gestaltistes et à la psychanalyse uniquement dans sa forme à « long terme ». Inclure cette recherche du côté des approches analytiques est donc une erreur de plus, tout comme est discutable de parler d’une thérapie durant 5 séances seulement. . . Poussant le modèle scientifique mathématique plus loin afin de palier aux biais subjectifs et erreurs méthodologiques ou interprétatifs des chercheurs, avant de prôner un retour à l’étude de cas, l’APA finança des méta-analyses d’ECR. Ce qui revient à un traitement statistique synthétique sur des traitements statistiques de dizaines d’ECR afin d’augmenter leur significativité et leurs populations de manière artificielle (cf. Egger et Smith, 1997) sur des critères de sélection d’études idéologiques ou appartenant à une seule et même épistémologie.
Résumer des centaines de chiffres à un seul : les limites d’un modèle mathématique appliqué à l’évaluation des psychothérapies
« La notion d’efficacité potentielle des ECR n’est pas une véritable garantie d’efficacité dans la clinique courante pour un patient pris en charge individuellement » (Fischman, 2009).
La méthodologie même des ECR prépare et facilite un traitement statistique. Leurs résultats sont résumés à travers une probabilité statistique nommée p. Arrêtons-nous sur la valeur heuristique de ce calcul. Ce chiffre est à traduire en termes de probabilité que les résultats obtenus se produisent à nouveau et qu’ils soient représentatifs et significatifs de la population concernée par l’étude. C’est-à-dire que c’est une traduction chiffrée permettant de dire que ce qui est mesuré est un effet provenant réellement de ce qui est mis en œuvre au niveau du traitement et non d’un hasard contextuel (comme si la relation thérapeutique ou les évènements réels de la vie d’un patient n’étaient pas à prendre en compte pour comprendre les effets ou le processus thérapeutique). P représente donc le « désaccord qu’il existe entre les données mesurées et une « hypothèse nulle » préalablement définie » (Parot et al., 2001, p. 201) qui renvoie à un effet lié au « hasard », conditionné par un seuil expérimental, classiquement fixé à 0,05 en psychologie, indiquant que les résultats obtenus sont à 95% de certitude non dus au hasard de l’échantillon.
Et ce, sans soulever toutes les questions statistiques autour du fait que plus l’échantillon est grand plus nous pouvons obtenir un p positif indépendamment de ce que nous mesurons et surtout qu’une significative d’une probabilité statistique ne signe en rien la valeur même de cette mesure. Elle peut représenter une évolution de 1 point sur une échelle de 100 pour 1000 patients, comme de 5 sur 10 pour un autre panel. L’effet thérapeutique peut être moyen et positif pour tous les patients ou très élevé pour une partie seulement et faible ou négatif pour les autres : les chiffres lissent une tendance abrasant toute nuance. . . et nous l’imaginons d’ores et déjà. . . pour interpréter cliniquement les résultats, il faudrait revenir au détail et au cas par cas d’une étude visant à effacer cette dimension. . . Ainsi, p n’a aucun rapport direct avec l’effet ou la taille de l’effet mesuré (ni sur ce qui est mesuré) : il a uniquement un rapport de significativité par rapport à l’échantillon. . . De plus, un résultat non significatif n’atteste pas d’une absence d’efficacité – contrairement à ce que les chercheurs font parfois dire aux chiffres – mais que l’échantillon n’est pas représentatif et que selon le modèle scientifique mathématique nous ne pouvons conclure ! C’est une erreur statistique d’inférer à partir d’une absence de significativité des résultats, une absence d’effet thérapeutique, ou d’effet tout court : ils ne sont pas mesurés ou la méthodologie retenue ne permet pas d’en rendre compte.
Afin d’aller plus loin, continuons sur le modèle statistique des méta-analyses qui, rappelons-le, est né du souhait de pouvoir synthétiser les ECR, déjà lissées, pour lisser également les biais desdites ECR. Faire des statistiques sur des statistiques pour éviter des biais qu’elles tendent elles-mêmes à limiter artificiellement avec un protocole mathématique et exclusif strict est devenu à ce moment, le standard anglo-saxon de la preuve. Outre le calcul de la probabilité statistique p, la plupart des méta-analyses calcule la taille de l’effet grâce au d de Glass (1976). Classiquement, les travaux de J. Cohen (1992) sont utilisés pour interpréter les tailles d’effet : d < 0,20 : faible ; d = 0,50 : moyen, d > 0,80 : fort. Ainsi, en plus d’une probabilité statistique nous pouvons « savoir » si l’effet mesuré est important ou non, mais une fois de plus en dépendance absolue avec le calcul de la significativité initiale et cette fois-ci sans ne plus savoir aucunement ce qui a été mesuré. En effet, en standardisant les mesures pour les rendre « indépendantes » des outils ou des expérimentateurs, une fois lissé, le chiffre permet une comparaison sur la même échelle de n’importe quel outil de n’importe quelle étude avec un groupe témoin. Que l’outil soit une échelle de dépression en 10 points ou un outil de qualité de vie en 36, nous n’avons plus qu’une valeur moyenne synthétisant des p et des d. Pour étayer concrètement ces critiques, nous pouvons prendre un exemple pratique afin de réaliser concrètement ce que signifie une taille d’effet significative. Une taille d’effet dite « nulle » à0 veut uniquement dire qu’entre la moyenne du groupe qui a suivi une thérapie et celle de celui n’en ayant pas suivi, il n’y pas de différence significative à 95 % de chance de ne pas s’être trompé. Nous n’avons plus aucun moyen de travailler autour des situations sortant de la moyenne, ni même de savoir si elles existent. d = 0 ne veut donc pas dire qu’aucun effet n’est atteste´, mais que statistiquement, par rapport à la fameuse hypothèse nulle, l’étude « prouve » qu’en suivant ce type de thérapie nous avons 1 chance sur 2 d’aller mieux ou moins bien par rapport au fait de ne rien faire. La thérapie fonctionne donc potentiellement dans un cas sur deux sans que nous pussions étudier le processus, ou l’importance des effets qu’ils soient positifs ou négatifs et même sans ne plus savoir ce qui a été mesuré au niveau de la nature de l’effet.
Pour mieux nous rendre compte des limites reconnues des méta-analyses, y compris par les statisticiens, plongeons dans un exemple concret et traduisons les résultats de l’étude de Glass (1976) en utilisant la table de conversion en pourcentage des d (Roth et Fonagy, 1996). S’appuyant sur 25 000 sujets issus de 475 études, Glass conclut qu’il n’y a pas de différence majeure et significative entre les différents types de psychothérapies mais que 75,2 % (d moyen = 0,68) des patients évoluent, en moyenne, davantage favorablement que la moyenne de ceux non traités à 95 % de chance que l’échantillon soit représentatif.
En d’autres termes, autant d’études et autant de statistiques pour revenir à la conclusion de Luborsky et al. (1975) obtenue à l’aide de « simple » calcul de fréquence, à savoir que toutes les psychothérapies se valent ? Ces chiffres peuvent-ils réellement apporter de nouvelles connaissances cliniques ou, au pire, aider les politiques de soin à établir cet idéal de classer par efficacité les psychothérapies ? En nous appuyant sur nos précédents travaux (Blanc, 2015, p. 218), nous pouvons dire qu’entre la « meilleure » prise en charge globale (désensibilisation systématique, d moyen = 0,91, 81,9 %5) et la « pire » (Gestalt-Thérapie, d moyen = 0,26, 60,3 %) établit par Smith et Glass (1977) et calculé en pourcentage par nos soins, nous avons une différence de 21,6 % de chance d’aller mieux en moyenne avec la meilleure prise en charge qu’avec la « pire » par rapport à la moyenne des personnes ayant aussi « un trouble» et n’allant pas consulter, et ce, à 95 % de chance que cela ne soit pas dû au hasard des échantillons. . . Et ces résultats brassent des populations diverses, souffrant de trouble unique différent, traitées par des méthodes à très court terme toutes différentes, évaluées toutes par des outils différents. La générabilité et la validité externe de ces études se maintiennent ainsi uniquement derrière une illusion de scientificité mathématique. Il en va de même pour la validité interne, représentant la cohérence entre les outils utilisés et la finalité étudiée : en ce centrant sur la symptomatologie, les spécificités des prises en charge sont abrasées, à la recherche d’un hypothétique facteur général.
Autant dire que pour le patient lambda ou des politiques de soins un minimum raisonnées, l’intérêt clinique ou décisionnaire est bien faible, si ce n’est inexistant. . . à part attester qu’il vaut mieux aller consulter que de rester avec ses difficultés et qu’une politique de soin en accord avec les études commandées pourraient, éthiquement et financièrement, conclure à une nécessité de prendre charge le remboursement des psychothérapies pour le bien-être à long terme de ses citoyens.
Des critiques aux compromis et propositions actuelles
« Refuser de réaliser des études ne peut qu’aggraver cette situation en avantageant le groupe thérapeutique pour lequel les études sont plus aisées à réaliser (études courtes, appréciation exclusive des symptômes manifestes. . .) » Guelfi, 2009, p. 93.
En cherchant une preuve à travers un modèle pharmaceutique et statistique, les recherches se sont fourvoyées tant cliniquement, qu’épistémologiquement : leurs résultats font disparaître la valeur de la mesure et imposent un retour au cas, à l’unicité de la mesure si l’on souhaite rendre compte de ce qui a été étudié et pas nécessairement prouvé. Ce qu’il faut retenir de toutes ces études c’est que « la preuve d’efficacité générale [des psychothérapies] étant acquise, ce sont les conditions dans lesquelles elles s’expriment et la façon dont elles s’exercent qu’il s’agit aujourd’hui d’explorer » (Thurin et Thurin, 2007, p2). Un retour aux sciences humaines semble nécessaire pour étudier notre objet d’étude. En effet, ne pas prendre en compte l’aspect relationnel intersubjectif conscient et inconscient de la relation thérapeutique est une erreur scientifique majeure, de même que de ne pas proposer – et construire – une méthodologie de recherche permettant de rendre compte de l’objet d’étude, du phénomène observé – et donc des attendus théorico-pratiques – de la prise en charge spécifique et spécifiée. Dire qu’une « thérapie analytique » ne réduit pas le symptôme-cible en 3 mois avec une méthodologie laborantine non cohérente avec le dispositif proposé est aussi incohérent épistémologiquement que conclure à une non-efficacité d’une thérapie comportementale sur la souplesse associative du système pré- conscient. . .
Pour autant, ne tombons pas dans un relativisme coupable où chaque dispositif aurait sa propre méthodologie de recherche, ses propres critères évaluatifs et d’estimer que, parce que les TCC sont davantage en adéquation avec le modèle laborantin, que cela convient en termes de cohérence épistémique. De même, tout en convenant que les critères de réfutabilité, reproductibilité et validités ne font pas forcément « science » par essence, peuvent-ils être pensés en adéquation par rapport aux dispositifs thérapeutiques proposés aux patients ? Tout en repartant de la situation clinique réelle, quotidienne, peut-on penser une adéquation des mode` les et des attendus, y compris en termes de politiques de soins qu’auprès des institutions, patients et thérapeutes ?
Un meurtre de l’idéal est nécessaire : il est impossible de tout prendre en compte dans une relation thérapeutique, ou dans les évènements extérieurs pouvant influencer le travail thérapeutique. Pour autant, se centrer sur un certain nombre d’indicateurs, y compris la réduction symptomatique prise dans sa complexité clinique incluant l’aggravation et les mouvements de régression mais aussi les évolutions fonctionnelles et internes des patients est nécessaire à la fois pour réaliser l’étude que pour pouvoir en rendre compte dans les cercles scientifiques mais aussi aux instances décisionnaires qui, actuellement, demandent du chiffre et de l’efficacité.
A court terme indépendamment de l’efficience à long terme ou de l’adéquation entre l’offre et la demande. . . Ainsi, attester des effets et du processus thérapeutique des prises en charge à long terme est une exigence éthique clinique et doit aussi pourvoir se transmettre hors cercle d’initiés.
Dans cette perspective, une inscription dans la clinique réelle et quotidienne des praticiens semble une composante essentielle à une évaluation cohérente épistémologiquement à son objet d’étude. Étudier la relation thérapeutique et le processus se mettant en place entre un psychothérapeute proposant un dispositif thérapeutique à un patient, irréductible aux autres, est un des premiers critères à retenir. Pour travailler ce qui fait processus ou effet, cela n’a aucun sens d’exclure des protocoles les patients aux profils multifactoriels ou multi-diagnostics. Bien au contraire, le seul critère d’inclusion à retenir est que l’indication de ce type de dispositif thérapeutique a été posée, et inversement comme critère d’exclusion. De plus, afin de respecter la prise en charge en condition ordinaire, nous ne pouvons demander au patient de faire « autre chose » que ce pourquoi il est là, c’est-à-dire sa psychothérapie, sur la durée nécessaire à sa « guérison » et non standardisée à l’avance, en tenant compte des enjeux éthiques et déontologiques inhérents à la recherche sur des personnes vulnérables.
Pour évaluer, il faut mesurer des phénomènes afin d’en rendre compte. Mesurer, ou plutôt, prendre la mesure de, n’a pas obligatoirement à être quantifié d’emblée. Il s’agit ici de repérer un changement, une évolution ou une transformation psychique ou relationnelle durant un traitement de manière qualitative puis, dans un temps second, transformer ces signes qualitatifs en grilles ou tableaux (Brun, Roussillon, Attagui, 2016 ; Blanc, 2015) ou` ils pourront être quantifiables, postpsychothérapie, en incluant le praticien et des pairs extérieurs afin de travailler les données. Nous nous éloignons ici des perspectives importantes dégagées par Thurin et Thurin (2010 a et b) dans la lignée américaine de Fishman (1999, 2000) où, à partir de principes méthodologiques similaires à ceux que nous défendons, ils proposent des outils génériques et a-théoriques pour évaluer différents dispositifs. Ici, au contraire, nous proposons, à partir des critères précédents, de soutenir et expliciter les démarches visant à construire des outils d’évaluation partant de la clinique, s’appliquant à la clinique et pouvant s’utiliser dans des cadres similaires autour de catégorisations de signes cliniques.
Ces signes cliniques tirés de la pratique quotidienne du dispositif, qualitatifs par essence et devenus quantifiables par et pour la recherche, permettraient de s’adresser aux décisionnaires, aux politiques, sans aliéner l’éthique du traitement et sa temporalité propre, en différenciant le temps du traitement (évaluation interne au cas par cas des effets du dispositif thérapeutique sur le patient) du temps d’évaluation s’adressant à un extérieur à la relation thérapeutique (évaluation externe, n’influençant pas le traitement fini, mais pouvant infléchir et faire évoluer les dispositifs, théorisations et pratiques, et pouvant se quantifier, voire permettre une agrégation des études de cas intensives) avec comme potentielle seule variable contrôlée des temps de relevés de protocole prévus à l’avance et pouvant se résumer à des notes extensives de séances traitées et évaluées dans un après-coup. Ces mesures de départs, intermédiaires et finales, favoriseront une comparaison à des cas analogues analysés selon une méthodologie similaire (Ablon et Jones, 1998).
Quid alors des critères dominants hors champ des sciences humaines dans ce mode` le ? Nous pourrions simplement les exclure, mais un certain nombre de chercheurs ont tenté de les prendre en compte et en allant encore plus loin, nous pourrions même y trouver une certaine force, ici davantage de persuasion et d’audibilité du discours, que d’accroissement des connaissances en soi, mais tout de même. Expliquons-nous.
Toute mesure, tout repérage clinique, ne peut s’entendre qu’à travers lui-même et qu’à travers le lieu même d’où il provient. Par exemple, nous pouvons mesurer la tristesse avec des échelles. Pour autant, le vécu concret subjectif intra-individu « tristesse » ne peut être accessible, mesurable, dans la rencontre thérapeutique que dans cet entre-deux permettant de prendre la mesure de, dans un référentiel donné. L’élément dont on rend compte n’a de valeur que dans, pour et à travers ce référentiel. Toute mesure, même objective ou objectivée n’a d’intérêt clinique ou évaluative que dans sa prise en compte même de cet entre-deux relationnel et du subjectif, dans le sens de « propre au sujet » et inscrit non pas dans une thérapie aseptisée, mais bien dans le référentiel d’application théorique et clinique de la démarche psychothérapique, y compris si son dispositif, comme dans un traitement psychanalytique, vise la non-reproductibilité, la surprise et l’inattendu car c’est bien précisément dans cette composante que se joue le processus thérapeutique clinique et non dans l’application d’un manuel dans le sens où toute psychothérapie est influencée par la rencontre et ne s’applique pas de manière stricte. La question de l’existence même de « manuels » ouvre de vastes débats. Même si cela dépasse notre propos, notons les remarques de Silverman (1996) qui vient interroger le processus de décision, de validation d’un manuel ou encore la retenue de telle ou telle méthode dans une ECR ? À ces remarques, joignons celle de Haaga (2004) qui rappelle, à juste titre, qu’un manuel est constitué d’éléments a priori qui s’appliquent en situation et leurs utilisations ne permettent en rien de savoir ce qui agit parmi eux dans le traitement, ni à quel moment ils agissent.
Ainsi, la cohérence épistémologique évaluative doit passer par l’appréhension de cet inattendu propre à chaque sujet, à chaque rencontre et à chaque prise en charge. Pour autant, la méthode analytique, tout en s’appliquant différemment à chaque analysant, repose sur des essentiels tels que l’écoute, la prise en compte de l’inconscient et des enjeux transféro-contre-transférentiels – pour ne citer que ces composantes. La question d’une quelconque reproductibilité doit reposer sur un dégagement des enjeux de la méthode psychothérapique propre à chaque dispositif thérapeutique propose à l’irréductible individualité de chaque sujet pris comme son propre référentiel, tout en ayant dégagé des indicateurs et signes cliniques, à la fois au niveau théorique, clinique et posttraitement des évolutions, changements ou transformations, à la fois attendus et non-attendus, mais permettant de rendre compte de ce qui a bougé de manière globale et inscrite dans la clinique du cas.
La reproductibilité peut donc exister non pas dans la standardisation du traitement, mais dans la prise en compte même de la spécificité du dispositif proposé et de la rencontre clinique. Le reproche pourrait nous être formulé que cela ne rend pas notre recherche reproductible dans le sens où la relation et ce qui s’y joue au niveau technique et interrelationnel ne sont pas identiques d’un patient à l’autre. Effectivement, nous ne pourrions dire le contraire, sauf que la relation est ce qui est thérapeutique, la reproductibilité doit venir du cadre et du dispositif en nous centrant sur les conditions même d’apparition du phénomène que nous souhaitons étudier et non sur une standardisation à outrance de la relation.
Pour résumer, afin de respecter la subjectivité du patient et les visées du dispositif de soin mis en place, il nous semble essentiel de devoir déplacer la question de la reproductibilité, de la réfutabilité, de la générabilité et des validés interne et externe de la méthodologie générale visant à lisser l’individu, à une méthodologie qui se centre sur cet individu en le prenant comme son propre référentiel, comme son propre témoin (et non par rapport à une donnée qui lui préexiste statistiquement). Ce type de méthodologie, que nous pouvons « classer » dans les études de cas intensives centrées sur les processus-résultats, consiste en une étude du processus et des effets au cas par cas en prenant comme point de départ le patient et en isolant les facteurs susceptibles de « changer » en rencontrant et co-créant le processus avec la méthode thérapeutique. Il s’agit donc de mesurer, repérer ou calculer des indicateurs de change- ment qui prendront sens dans la clinique du patient, avant de pouvoir être regroupés et synthétisés par agrégations et regroupements de patients suivis par le même dispositif et « analysés » par la même procédure méthodologique, uniquement dans un temps second, servant ainsi à la fois la clinique de la méthode thérapeutique choisie, et la question de l’évaluation à proprement parler de cette méthode en prenant comme propre référentiel de chaque valeur, calcul et/ou indicateur clinique le patient et son individualité. De plus, étudier les spécificités d’un dispositif et de ses visées n’exclut, ni d’étudier les effets globaux et dits « objectifs » de la méthode, ni que cette manière d’étudier le processus psychothérapique doit nécessairement s’exclure d’une inscription dans la réfutabilité ou la reproductibilité, comme nous venons de l’étudier et en oubliant pas qu’une reproductibilité en sciences humaines n’est pas dans le traitement des donnée sou dans le phénomène observé mais dans la méthodologie employée pour en rendre compte, là où la réfutabilité l’est dans la confrontation aux pairs des données et dans l’explicitation des choix d’indicateurs et de leur cotation.
Par exemple, à la suite de nos travaux de thèse (Blanc, 2015) où nous avons proposé une méthodologie basée sur les critères précédents et abouti à la construction d’une grille d’évaluation du psychodrame psychanalytique individuel, nous travaillons actuellement sur cet outil sur plusieurs sites afin d’affiner les indicateurs, les signes cliniques et leurs évolutions afin de pouvoir rendre compte à la fois des processus et des effets thérapeutiques en jeu pour chaque patient suivi, que de pouvoir travailler à des agrégations de situations cliniques suivis durant tout leur traitement selon une méthodologie et un temps de relevés des données similaires sur plusieurs sites cliniques permettant également de s’adresser à des non-analystes sans perdre de vue notre manie` re de travailler et d’exister au sein des institutions de soins. Nous pouvons ainsi mettre au débat dans l’espace public nos résultats tout en préservant en termes de méthodes, techniques et intimité ce qui se déroule au cœur de l’espace privée des expériences cliniques.
Perspectives conclusives
« (. . .) le choix de la méthode ne dépend pas d’a priori théoriques mais de la nature de l’objet et des buts de la recherche » Wdilöcher, 2004, p. 17
Évaluer. Outre les aspects de politiques ou de vérités, pour la clinique quotidienne analytique, les résistances se situent non pas dans l’objet même de l’évaluation ou du thérapeutique, mais dans la formalisation même de l’objet de la recherche évaluative. Évaluer revient à mettre en mot – et nécessairement réduire – une pratique intersubjective, prenant en compte des enjeux inconscients et des processus particulièrement ardus à traduire ou à transmettre, qui plus est dans une clinique de l’associativité ou de la mise en signe et en sens de la vie psychique. Pour autant, se saisir de ce pan de la recherche reviendrait également à mettre au travail et soutenir la reconnaissance des spécificités d’un travail psychanalytique et de son processus thérapeutique, qui ne se résume pas à l’extériorité ou à la question symptomatique, mais qui ne l’exclue pas par ailleurs. Développer une méthodologie de recherche sur l’évaluation concordante épistémologiquement aux approches psychothérapiques psychanalytiques est un chantier dont nos considérations précédentes pointent l’extrême acuité et ce tournant est en cours et doit être poursuivi et soutenu, y compris pour les dispositifs plus classiques (divan, face-à-face, etc.). La question de l’évaluation a toujours pose moins de difficultés pour les praticiens de dispositifs plus originaux (psychodrames, groupes, médiations, etc.), sans doute du fait même de la nécessité de rendre compte de l’existence de processus authentiquement psychanalytiques en leur sein (cf. Brun et al. 2016 ; Blanc, 2015).
N’oublions pas que cette saisie de la problématique de l’évaluation par les psychanalystes et psychologues cliniciens de terrain rencontre également, d’une certaine manière, la réalité de l’évolution du soin actuel qui est plus en plus calculé, médicamenté, ou réduit à peau de chagrin et où chaque jour se retrouvent en conflit les réductions budgétaires, la hausse des demandes et une philosophie de l’être humain et du soin particulièrement difficile à défendre. Même si Freud a toujours rechigné à penser la psychanalyse comme une philosophie de l’être humain – et pas uniquement comme une psychothérapie prenant en compte les phénomènes inconscients et transférentiels – c’est bien une éthique et une vision de l’être humain et de son extrême singularité qui se retrouvent également débattus sur le terrain de l’évaluation.
Travailler uniquement l’objectivation des effets sur les symptômes ne permet pas de mettre en lumière l’influence du traitement sur le fonctionnement de la personne, sur ce qu’elle est et sur ce qui a changé en elle. Même après un traitement médicamenteux, une personne – et son fonctionnement immunitaire – n’est pas, plus, exactement la même : quelque chose s’est passé en elle. Guérir, ce n’est pas retourner à un stade antérieur comme s’il ne s’était pas passé. Se centrer sur le symptôme sans l’inscrire également dans un processus d’historicisation reviendrait à oblitérer les raisons de son existence et de sa naissance à ce moment-là, chez cette personne-là. L’essentiel n’est pas tant la disparition que ce qui s’est passé en elle la permettant : le processus est toujours plus fondamental que la surface.
L’ étude du processus ne peut s’inscrire que dans l’unicité du cas, même si nous pouvons évaluer en après-coup, à des moments particuliers, ou regrouper des cas ou des situations suivies par le même dispositif thérapeutique en seconde approche. Cette démarche, nécessaire, ne doit pas faire disparaître la réalité de la clinique. A savoir, si cela a fonctionné pour un sujet, si le processus a été efficient, c’est profondément inscrit dans l’unique de la rencontre qu’il l’a été. C’est une force pour la suite, pour le suivant, mais pas pour offrir un prêt-à-porter au prochain avec ce qui a été construit dans l’unique de la rencontre thérapeutique précédente. Si réussite ou efficience a été trouvée, elle est toujours co-construite et c’est davantage la méthode analytique d’écoute qui peut faire figure de parangon psychothérapique sans tomber dans le risque d’une protocolarisation de la recherche du « signe clinique » ou d’une recette toute-faite qui déshumaniserait l’être humain et la richesse de la rencontre en oubliant pas que tous tableaux, grilles ou classifications, même construits en seconde main, une fois établis, risquent dans la transmission ou la transposition de perdre l’origine clinique, riche et mouvante comme si elle correspondait à une réalité réelle idéale préexistante à l’objet d’étude. Mais c’est un risqué à prendre si nous ne voulons pas voir nos pratiques évaluées par d’autres champs épistémologiques que celui que nous pratiquons au quotidien.