Evaluation, psychothérapie et psychanalyse

Extraits de l’article : Evaluation, psychothérapie et psychanalyse : réflexions et perspectives éthiques, épistémologiques et scientifiques

Par A. Blanc

Pour citer cet article :

Blanc A. (2018). Evaluation, psychothérapie et psychanalyse : réflexions et perspectives éthiques, épistémologiques et scientifiques, In Analysis, 2, 163-170.


Résumé :

Le domaine de l’évaluation des psychothérapies est devenu un champ de recherche à part entière en France suite au coup de tonnerre qu’a représenté  le rapport de l’Inserm (2004) proposant un état des lieux de la littérature scientifique internationale sur le sujet. Bien que critiquable à de nombreux égards, ce rapport aura eu le mérite d’amener les praticiens du terrain et les chercheurs, psychanalystes ou non, à se positionner et à débattre  de  cette  question  scientifique  et  politique.  Souvent  critiquée,  l’approche  du  modèle  médical appliquée aux psychothérapies l’a rarement été d’un point de vue épistémologique et scientifique. A savoir, apporte-t-il une hausse des connaissances et du savoir concernés ? Partant d’une réflexion épistémologique sur les critères scientifiques retenus pour réaliser ce rapport, nous questionnerons l’usage du modèle médical pharmaceutique et statistique en sciences humaines. Nous proposerons en fin d’article quelques perspectives et considérations afin de penser autrement l’évaluation clinique, en déplaçant la question de la réfutabilité, de la reproductibilité ou des validités interne et externe à une clinique de terrain incluant la subjectivité, la relation thérapeutique, les dynamiques transférentielles et l’adéquation entre les objectifs des dispositifs thérapeutiques évalués et la méthodologie évaluative, en remettant au centre de l’évaluation le patient lui-même comme référentiel-témoin de la démarche évaluative elle-même à travers quelques exemples.

____________________

Introduction

L’évaluation des pratiques  psychothérapiques,  qu’elles  soient psychanalytiques ou non, fait débat, résistance ou engouement sous la pression des demandes – parfois paradoxales – et des exigences budgétaires de plus en plus soumises aux évaluations de tout bord. Estimé à plusieurs centaines de formes et types de « thérapies » (Parot et al, 2011), les débats – houleux – touchent autant à la forme et aux objectifs des prises en charge (à savoir, laquelle serait la plus efficace), qu’à une réflexion  sur  l’épistémologie  et  la  scientificité même des évaluations. Croiser cette réflexion à celle inhérente aux processus thérapeutiques et à leurs effets nous semble essentiel et manque  que  trop  fréquemment  dans  les études  évaluatives  se rabattant souvent sur des critères dits « dominants » de scientificité et originaires de champs épistémologiques variés, et non nécessairement adaptés ou concordants à la démarche psychothérapique – qui plus est psychanalytique. A ce titre, nous souhaitons dans cet article   questionner   et   débattre   des   méthodes   évaluatives   en interrogeant  leur  scientificité,  ou  en  tout  cas,  l’adéquation  entre l’objet d’étude et les moyens mis en œuvre pour l’étudier.

L’évaluation,  faussement  stéréotypée  et  rabattue  du  côté  du chiffre  et  du  quantitatif,  est  également  au  cœur  même  de  la pratique analytique et des attendus, conscients et inconscients, de toute rencontre à visée psychothérapique : quelque chose en est attendu ; que cela soit un « mieux être », une réduction-suppression symptomatique, ou encore une meilleure connaissance de soi- même. Nous ne nous engageons pas, ni ne recevons un patient, un analysant, de manière  anodine  ou  rigidifiée  sur  le  postulat  de  la guérison  de  surcroît  qui  est  davantage  à penser  au  niveau  de  la méthode et   du   positionnement   technique   que   de   l’éthique analytique (et qui ne se résume pas nécessairement au symptôme mais  ouvre  également aux  dimensions  fonctionnelles  et  psychiques  des  sujets).  En  effet,  ne  pas  viser  de  manière directe  la suppression  des  symptômes,  au sens  psychiatrique du  terme,  en proposant la libre association des idées, ne fait pas disparaître la réalité  de l’attente d’un « mieux-être », y compris de surcroît, et ce, en incluant dans la théorie de la méthode, le transfert négatif, les résistances  et  les  régressions  inclus  dans  le  processus  thérapeutique lui-même.

Cependant, les hiatus entre  les  attendus  du  thérapeute,  des patients ou du politique peuvent paraître, de prime abord, infranchissables. En quoi, une évaluation quantifiée pourrait rendre compte de la  rencontre  psychothérapique  ?  Pour  autant,  ne  pas prendre en compte la question concrète du symptôme, comme celle de la demande, pourrait-il être au cœur d’une éthique soignante et psychothérapique? Comment concilier l’objet de l’évaluation à celui de la prise en charge sans en soumettre un au service de l’autre à travers un argumentaire autour de la scientificité,  sans  oublier  la réflexion épistémologique, est tout autant un enjeu de société, que d’ouverture au débat de la psychanalyse avec les sciences connexes, sans  la  considérer  uniquement  comme  un  objet  inatteignable  ou intransmissible à celui qui n’en aurait pas fait l’expérience.

Plus   précisément,   participer   au   débat,   à ses   controverses, compromis et issues, ne pose pas comme problématique centrale une  contestation  de  L’évaluation qui  existe  et  existera  toujours, mais   impose   de   prendre   un   peu   de   recul   et   de   réfléchir   à l’épistémologie même de l’évaluation des prises en charge à visée soignante et à son histoire dans le domaine des sciences. Comment, pourquoi  et  sur  quoi  les  méthodes et  résultats actuels  et  déjà produits portent-ils ? En quoi ces choix opérés bien souvent hors champ scientifique psychanalytique font « débat » si nous prenons un  angle  épistémologique  ?  Les  résultats et méthodes sont-ils, peuvent-ils, être légitimes et adéquats à leur objet d’étude ? Si nous suivons Kuhn (1962), nous pourrions nous demander si la productivité  d’un   savoir   sur   L’évaluation partant   des   travaux actuels et dominants autour de la scientificité  de l’évaluation et de la  psychanalyse  permettent-ils  de  manière pertinente  de  rendre compte de l’objet d’étude de l’évaluation qui, nous semble-t-il, se doit de rencontrer l’objet de la méthode psychothérapique évaluée. Ainsi, nous allons nous interroger de manière critique, non pas sur les « résultats» des évaluations uniquement, mais bien sur la production  et  les  mécanismes  de  choix  opérés dans  les  méthodologies  évaluatives,  leur  scientificité et  l’interprétation  de  leurs résultats afin de dégager, au fil de notre argumentaire, des points d’appui sur les conditions mêmes pouvant rendre concordant aux objets   d’étude   la   question   de   l’évaluation,   sortant   d’un   tout quantitatif et des impasses d’un modèle primairement statistique et médical, y compris si l’on vise à s’adresser aux décisionnaires des politiques de soin.

Le rapport de l’INSERM (2004) : contexte historique et méthodologique

« (. . .) les instruments développés pour étudier les changements symptomatiques seraient alors adaptés aux examens de toute forme de psychothérapie» (INSERM, p. 7)

De  nos  jours,  aborder  le  sujet  de  L’évaluation des  psychothérapies semble ne pouvoir se réaliser sans questionner d’abord la démystification   du   tristement   célèbre   rapport INSERM comme  si  rien  n’avait  existé   avant  et  que  le  monde  français basculait  suite  à l’effet  «  bombe  »  de  la  découverte  des  études contrôlées randomisées (ECR) dont le rapport prônait la supériorité scientifique de cette méthode évaluative, au détriment des autres. Sans  répéter  les  nombreuses  critiques  établies,  retenons  tout d’abord  qu’avant  de  questionner  les  limites  méthodologiques  et épistémologiques   d’une   étude,   il   convient   de   les   mettre   en perspective avec les objectifs mêmes de l’étude en question. Ainsi, il est important de rappeler que ce rapport n’est ni un protocole évaluatif, ni même une méta-analyse : il s’agit d’un état des lieux d’une  revue  de  littérature  sélectionnée  selon  le  modèle médical (Ciadella, 2007). En ce sens, tout en portant mal son nom (n’évaluant  en  propre  aucune  approche),  ce  rapport  atteste  non pas  d’une  supériorité   thérapeutique  d’une  quelconque  psychothérapie sur une autre, mais bien d’un manque de recherches en psychanalyse  correspondant  aux  critères retenus  par  le  groupe d’experts missionnés par le ministère de la Santé  dans le cadre du plan Santé Mentale de 2001 pour répondre « scientifiquement », grâce à la littérature internationale, à la question de l’efficacité des différentes approches psychothérapiques.

À cette  fin,  légitime  tant  politiquement  qu’éthiquement,  le groupe   d’experts   se   donne   comme   objectif   de   s’intéresser aux  références  spécifiques  des  approches,  à leurs  données dans la littérature, à leur comparaison, à leur mise en lien pathologie par pathologie et bien sûr, à leurs résultats et méthodes d’évaluations aboutissant,  selon  leurs  critères, pour  16  troubles  rencontrés  en psychiatrie  (et  diagnostiqués  avec  le  DSM),  à la  conclusion  que « l’efficacité  de la thérapie pouvait être considérée comme établie pour 15 d’entre eux avec la thérapie comportementale et cognitive, pour   5   avec   la   thérapie familiale,   et   pour   un   seul   avec   la psychanalyse  » (Guelfi, 2009, p. 93).  Regardons  de  plus  près  ces critères retenus autour de la preuve scientifique « établie».

En tout premier lieu, les experts auront questionné la possibilité même d’une évaluation d’une psychothérapie qui, par définition, met  en  scène  des  êtres  humains,  du  relationnel,  du  subjectif.  Le « subjectif » étant un problème dans leur démarche visant à une objectivité  scientifique  médicale,   ils   ont   décidé   de   suivre   les recommandations de l’American Psychiatric Association (APA), ce qui était pertinent à l’époque, l’APA ne prônait pas encore un retour à l’étude  intensive  de  cas.  En  suivant  ces  recommandations,  les experts  choisissent  de  soutenir  la  démarche  ayant  transposé le modèle de l’evidence based medicine (EBM) à l’empirically supported psychotherapy (ESP) ayant conduit, dans le monde anglo-saxon, à un financement et une domination quasi-exclusive des recherches appliquant   le   modèle  des   ECR   adoptant   comme   critère   de scientificité ,  à la  suite  des  travaux  de Popper (1985),  la  construction de méthodes respectant la reproductibilité, la réfutabilité et  les  validités  interne  et  externe  des  hypothèses  du  domaine médical pharmaceutique  comme  critère  scientifique  permettant d’éliminer  les  «  biais  »  liés  au  subjectif  et  à la  relation  thérapeutique, pourtant au cœur du travail psychothérapique.

Ainsi, tout en repérant qu’évaluer des « thérapies d’inspiration psychanalytique  à  l’aide   d’instruments   développés   dans   un cadre purement symptomatique impose  une certaine méfiance» (INSERM, 2004, p. 7), les experts choisissent d’utiliser seulement des articles  publiant  des  ECR  et  des  méta-analyses préconisant  ce genre d’outils pour évaluer la psychanalyse ! Le paradoxe est de taille.  Imaginons,  par  exemple,  évaluer  une  thérapie  comportementale   avec   un   outil   créé   pour   repérer   les   mécanismes   de défenses  inconscients  du  sujet,  sur  lesquels,  une  thérapie comportementale n’agit pas en premier lieu : le scandale paraîtrait énorme, l’inadéquation flagrante. . . L’inverse, beaucoup moins. En transposant le modèle médical centré sur le résultat isolé entre une molécule  et  un  symptôme,  il  devient  pertinent  de  chercher  à étudier essentiellement le lien entre thérapie et réduction symptomatique,  excluant  de  la  réflexion  l’étude  du  processus  thérapeutique lui-même.

Une   réflexion  épistémologique supplémentaire   se   profile. Etudier  la  question  des  effets  d’une  psychothérapie  impose  de proposer  une  méthodologie  adéquate  au  phénomène  étudié  : à savoir,  rendre  compte  d’une  pratique  relationnelle  non  médicamenteuse.     Que     les     psychothérapies    appartiennent,    pour l’ensemble, au domaine médical aux Etats-Unis, et également au domaine des sciences humaines en France, n’est pas sans poser ici un  paradoxe  de  taille.  Il  est  concordant  épistémologiquement d’étudier les effets selon la scientificité médicale d’un côté, là où cela semble aberrant de retirer l’étude du processus relationnel de l’autre. . . La différence fondamentale entre les sciences ne tient pas tant  de  leur  objet  d’étude  qu’à leur  méthode et  forme  d’objectivations utilisées pour appréhender le phénomène qui les intéresse (Windelband, 1905). Ainsi, appliquer une méthodologie médicale transposée  à l’évaluation revient   à étudier   médicalement   le phénomène observé  et non en termes de sciences humaines. Nous travaillons ainsi avec l’objet « effet » de deux points de vue, sans doute complémentaires mais pas nécessairement compatibles en termes   de   référentiel   scientifique.   Malgré   l’existence   de   ce paradoxe,  poursuivons  notre  réflexion et  allons  du  côté  de  cette transposition et décortiquons de manière critique les connaissances  obtenues  –  et  leur  méthodologie  –  afin  d’ouvrir  à d’autres perspectives évaluatives et à d’autres « effets thérapeutiques ».

Les ECR : une transposition du modèle médical pharmaceutique centré sur la réduction symptomatique

La preuve  liée   à l’EBM  rencontrant  les  modèles mathématiques statistiques prônés comme idéal de neutralité  et d’objectivité. La dérive était simple à suivre lorsque ce modèle s’est transposé aux thérapies  psychiques.  Évaluer  l’effet  d’un  dispositif  revenait  à évaluer son effet sur un trouble, sur l’efficacité du dispositif sur le trouble et non sur l’efficience de son processus, entraînant un biais majeur  d’interprétation  dans  la  connaissance  scientifique,  réduisant  toutes  les  approches  thérapeutiques  à un  même  objectif princeps, indépendamment du subjectif et du relationnel, celui de la réduction symptomatique le plus rapidement et « efficacement » possible. Ce point de vue entraîna un biais méthodologique fort : L’évaluation est  centrée  sur  un  symptôme  isolé  et  isolable  des composantes   relationnelles,   traitable   de   manière  «   neutre   » statistiquement, comme l’effet d’un médicament sur un trouble. Sans rentrer dans un listing exhaustif de toutes les critiques d’ores  et  déjà bien  documentées  sur  les  ECR,  y  compris  dans  le domaine médical (p.e. Kazdin, 1982 ; Fishman, 1999, 2000, Thurin, 2006, 2017), illustrons notre propos en étudiant la manière dont les composantes subjectives et relationnelles sont « neutralisées » par le principe de la méthode en double insu inhérente à l’EBM et aux  ECR.   Pour   ce   faire,   l’expérience   laborantine   propose   une méthodologie visant à étudier et mesurer uniquement l’effet de la molécule soustrait de son effet placebo ; effet placebo incluant de fait la composante relationnelle et suggestive et attestant, par le négatif,  de  l’important  effet  de  cette  dimension  qui,  à défaut d’intéresser  les  chimistes  devrait  être  au  cœur  des  questionnements  des  psychothérapeutes  et  chercheurs  en  évaluation.  Cette méthode en double  insu  entraîne  que  ni  le  médecin  donnant  la molécule testée, ni le patient la recevant ne savent si la molécule prise est active ou non. Il va de soi que nous ne pouvons demander à un thérapeute de ne pas savoir quelle méthode il utilise ou à un patient de ne pas savoir s’il fait un travail thérapeutique ou non. La méthode en double  insu  et  «  l’objectivité»  sont  déplacées  et transposées  dans  la  méthodologie  de  recherche  même  où   les chercheurs  s’autorisent,  éthiquement  et  déontologiquement,  à placer dans des groupes « liste d’attente » ou échanges en face-a`- face « non thérapeutiques » (sic. . .) des patients souffrant du même unique  trouble  que  ceux  suivis  dans  l’approche  évaluée.  Pour respecter  ce  double  insu  et  ne  pas  créer  un  biais  de  «  choix  » subjectif, les patients sont répartis aléatoirement dans des groupes de 20 à 40 participants (incluant une comparaison avec un groupe témoin) afin d’écarter les effets dus précisément à la rencontre et les  données  sont  traitées  statistiquement  pour  ne  pas  inclure d’interprétation subjective. . . alors qu’en mathématiques, le calcul doit être maîtrisé et traduit en langage verbal pour être partagé et justement interprété  pour avoir un sens.

Notons que le regroupement de ces personnes dans des groupes à très grand effectif vise à lisser la singularité  de chaque cas ayant un trouble dit homogène sur une durée très limitée afin d’éviter également l’effet  lié  au  temps.  Par  ailleurs,  rappelons  que  ces études   recrutent   leurs   «   patients   »   parmi   «   les   étudiants   de l’université   ou  par  la  presse  et  non  pas  sur  des  populations cliniques traitées dans les lieux cliniques » (Thurin, 2006, p. 578). . . ce qui n’est pas sans questionner sur la pertinence même de ce type d’étude pour l’amélioration des prises en charge : peut-on même parler ici de patient ?

Le  plus  surprenant  dans  cette  démarche  est  peut-être  que l’argumentaire du rapport INSERM conclut que les approches en situation réelle, les études de cas, sont tout autant essentielles à la connaissance scientifique et que les ECR ne peuvent s’utiliser qu’en  complément des  études qualitatives et  épistémologiques. Pour autant, sous couvert de « hiérarchie » de l’évaluation par la preuve, les experts n’incluront dans leur rapport que des ECR et méta-analyses,  excluant  toutes  les  études  non  chiffrées  n’appliquant pas la transposition de la méthode en double insu telle que nous  venons  de  l’expliciter, excluant  de  l’évaluation  tout patient souffrant de troubles complexes, multifactoriels et pourtant représentant bien davantage – voire uniquement – la réalité des pratiques cliniques et thérapeutiques de terrain.

Des ECR aux méta-analyses : de plus grandes cohortes pour de plus grands résultats?

Réduire la subjectivité des chercheurs

Les chercheurs se sont rapidement aperçus  que  les  ECR  présentaient des biais et des limites et que les choix d’outils, le manque  de  comparaisons  possibles  de  certains  sujets  recrutés (patients,  étudiants,  etc.)  ou  de  certaines  données posaient  des questions scientifiques sur la significativité des résultats (graal des recherches  portant  sur  la  «  preuve  »)  ou  plutôt  sur  leur  interprétation, sur la générabilité possible des chiffres obtenus sur des cohortes  gigantesques,  résumant  les  débats à un  «  savoir  »  qui serait  vérité  et  contre-vérité,  alors  qu’un  domaine  scientifique, quel   qu’il   soit,   reste   un   état   actuel   de   la   connaissance   d’un phénomène  donné appréhendé,  appréhendable  par  une  méthodologie proposée.

Prenons  un  exemple.  La  synthèse  d’ECR  réalisée  par Eysenck (1952)  concluait  à un  effet  inexistant  des  psychothérapies  en comparant des études rendant compte de l’évolution spontanée de problématiques  névrotiques  par  rapport  à celles  de  patients  en thérapies ou suivis par un médecin « classique ». Suite aux critiques majeures réalisées  par Garield et Bergin (1978)  invalidant  la synthèse (études non comparables, groupe témoin arbitraire, etc.), plusieurs autres études auront fait l’effet d’une bombe (p.e. Sloane et al., 1975a et b ; Luborsky et al. 1975) sans réussir à amener une véritable progression du domaine scientifique de l’évaluation (se contredisant  chacune)  tout  en  cherchant  de  manière abusive  à conclure à une généralisation possible de leur étude alors qu’une thérapie en  laboratoire  n’est  aucunement  transposable  en  situation clinique de terrain.

Cette méthodologie évaluative tente d’abraser, nous l’avons vu, la subjectivité tant  du  thérapeute  que  du  chercheur.  Cependant, celle du chercheur reste convoquée dans la réalisation même des études (cohorte, choix des sujets, outils retenus, types de thérapies testés, méthode d’analyse  retenue,  interprétation  des  résultats, etc.)  comme  dans  les  choix  d’études  sélectionnées  pour  la  construction des méta-analyses visant à réduire les biais subjectifs des études   tentant   d’ores   et   déjà de   «   supprimer   »   l’effet   de   la subjectivité en psychothérapie. Au-delà de la gymnastique d’esprit que demande ce propos afin de se rendre compte de la non- pertinence épistémologique de la manière d’obtenir des connaissances scientifiques par rapport à l’objet étudié, prenons un nouvel exemple d’erreur du rapport INSERM avec l’ECR de Paul (1967).

Cette étude compare 3 groupes composés d’étudiants suivis en thérapie  pour  des  difficultés  au  niveau  social  (déficit  en  compétence sociale et en anxiété  sociale avec peur de parler en public) et  un  groupe  témoin.  Les  thérapies  comparées  sont  la  thérapie comportementale  de  désensibilisation  systématique  de Wolpe (1961), l’Insight-Oriented Psychotherapy et une thérapie « placebo » de simple « soutien relationnel » (sic. . .) pendant que le groupe témoin, composé d’étudiants avec le même profil, ne recevait pas de soin. Sans surprise, les résultats (calculés uniquement en termes de   significativité  et   sans   aucune   taille   d’effet   permettant   de qualifier  l’ampleur  du  changement)  conclurent  à une  supériorité de la thérapie comportementale, développée, créée et testée pour ce  type  de  trouble,  avec  des  outils  d’évaluations retenus  pour mesurer  uniquement  les  progrès  obtenus  sur  la  «  compétence sociale ». Recruter des personnes souffrant d’une difficulté à parler en public, proposer une thérapie centrée sur le « parler en public » et mesurer ensuite la capacité à parler en public revient à prouver une  efficacité  intéressante   pour   la   thérapie comportementale certes, mais est-ce pertinent de la comparer à d’autres formes de thérapies  n’ayant  pas  nécessairement  les  mêmes  objectifs  ou visées thérapeutiques ?

De plus, le rapport de l’INSERM, tout en passant à côté  de nos  précédentes remarques  et  de   leur  implication,  expose  la décision qui a été  prise d’affilier la thérapie centrée sur l’insight à une psychanalyse « générale », alors que la méthodologie de prise en   charge   des   patients   de   l’étude   a   été   celle   de   la   thérapie comportementale, à savoir : les patients étaient suivis par groupe de 3 pour 5 séances uniquement ! Ce qui n’est ni la méthode, ni le cadre  proposé   des  autres  formes  de  prise  en  charge.  De plus, Carson et al. (2007) précise que cette thérapie centrée sur l’insight lorsqu’elle  est  de  court  terme  est  référée  au  modèle des  fausses croyances gestaltistes et à la psychanalyse uniquement dans sa forme  à «  long  terme  ».  Inclure  cette  recherche  du  côté   des approches analytiques est donc une erreur de plus, tout comme est discutable de parler d’une thérapie durant 5 séances seulement. . . Poussant le modèle scientifique mathématique plus loin afin de palier  aux  biais  subjectifs  et  erreurs  méthodologiques  ou  interprétatifs des chercheurs, avant de prôner un retour à l’étude de cas, l’APA   finança  des   méta-analyses   d’ECR.   Ce   qui   revient   à un traitement statistique synthétique sur des traitements statistiques de dizaines d’ECR afin d’augmenter leur significativité et leurs populations de manière artificielle (cf. Egger et Smith, 1997) sur des critères de sélection d’études idéologiques ou appartenant à une seule et même épistémologie.

Résumer des centaines de chiffres à un seul : les limites d’un modèle mathématique appliqué  à l’évaluation des psychothérapies

« La notion d’efficacité  potentielle des ECR n’est pas une véritable garantie d’efficacité  dans la clinique courante pour un patient  pris  en  charge  individuellement » (Fischman, 2009).

La  méthodologie  même  des  ECR  prépare  et  facilite  un  traitement statistique. Leurs résultats sont résumés à  travers une probabilité   statistique   nommée   p.   Arrêtons-nous   sur   la   valeur heuristique de ce calcul. Ce  chiffre  est à traduire en  termes  de  probabilité   que  les résultats obtenus se produisent à nouveau et qu’ils soient représentatifs et significatifs de la population concernée par l’étude. C’est-à-dire  que  c’est  une  traduction  chiffrée  permettant  de  dire que ce qui est mesuré est un effet provenant réellement de ce qui est mis en œuvre au niveau du traitement et non d’un hasard contextuel (comme si la relation thérapeutique ou les évènements réels de la vie d’un patient n’étaient pas à prendre en compte pour comprendre les effets ou le processus thérapeutique). P représente donc le « désaccord qu’il existe entre les données mesurées et une «  hypothèse  nulle  »  préalablement  définie  » (Parot et al., 2001, p. 201) qui renvoie à un effet lié au « hasard », conditionné par un seuil  expérimental,  classiquement  fixé   à  0,05  en  psychologie, indiquant que les résultats obtenus sont à 95% de certitude non dus au hasard de l’échantillon.

Et ce, sans soulever toutes les questions statistiques autour du fait que plus l’échantillon est grand plus nous pouvons obtenir un p positif indépendamment de ce que  nous  mesurons  et  surtout qu’une significative d’une probabilité statistique ne signe en rien la valeur même de cette mesure. Elle peut représenter une évolution de 1 point sur une échelle de 100 pour 1000 patients, comme de 5 sur 10 pour un autre panel. L’effet thérapeutique peut être   moyen et  positif  pour  tous  les  patients  ou  très élevé   pour  une  partie seulement et faible ou négatif pour les autres : les chiffres lissent une tendance abrasant toute nuance. . . et nous l’imaginons d’ores et  déjà. . .  pour  interpréter  cliniquement  les  résultats,  il  faudrait revenir au détail et au cas par cas d’une étude visant à effacer cette dimension. . . Ainsi, p n’a aucun rapport direct avec l’effet ou la taille de l’effet mesuré (ni sur ce qui est mesuré) : il a uniquement un rapport de significativité  par rapport à l’échantillon. . . De plus, un    résultat   non    significatif    n’atteste    pas    d’une    absence d’efficacité – contrairement à ce que les chercheurs font parfois dire aux chiffres – mais que l’échantillon n’est pas représentatif et que selon le modèle scientifique mathématique nous ne pouvons conclure  !  C’est  une  erreur  statistique  d’inférer  à partir  d’une absence   de significativité   des   résultats,   une   absence   d’effet thérapeutique,  ou d’effet  tout court  :  ils  ne sont  pas  mesurés  ou la méthodologie retenue ne permet pas d’en rendre compte.

Afin d’aller plus loin, continuons sur le modèle statistique des méta-analyses  qui,  rappelons-le,  est  né   du  souhait  de  pouvoir synthétiser  les  ECR,  déjà lissées,  pour  lisser  également les  biais desdites ECR. Faire des statistiques sur des statistiques pour éviter des  biais  qu’elles  tendent  elles-mêmes  à limiter  artificiellement avec un protocole mathématique et exclusif strict est devenu à ce moment, le standard anglo-saxon de la preuve. Outre le calcul de la probabilité  statistique  p,  la  plupart  des  méta-analyses  calcule  la taille de l’effet grâce au d de Glass (1976). Classiquement,  les travaux de J. Cohen (1992) sont utilisés pour interpréter les tailles d’effet : d < 0,20 : faible ; d = 0,50 : moyen, d > 0,80 : fort. Ainsi, en plus d’une probabilité  statistique nous pouvons « savoir » si l’effet mesuré est important ou non, mais une fois de plus en dépendance absolue avec le calcul de la significativité initiale et cette fois-ci sans ne  plus  savoir  aucunement  ce  qui  a  été   mesuré.  En  effet,  en standardisant  les  mesures  pour  les  rendre  «  indépendantes  »  des outils ou des expérimentateurs, une fois lissé, le chiffre permet une comparaison  sur  la  même  échelle  de  n’importe  quel  outil  de n’importe quelle étude avec un groupe témoin. Que l’outil soit une échelle de dépression en 10 points ou un outil de qualité de vie en 36, nous n’avons plus qu’une valeur moyenne synthétisant des p et des d. Pour étayer concrètement ces critiques, nous pouvons prendre un exemple pratique afin de réaliser concrètement ce que signifie une taille d’effet  significative. Une  taille  d’effet  dite  «  nulle  »  à0 veut uniquement dire qu’entre la moyenne du groupe qui a suivi une  thérapie et  celle  de  celui  n’en  ayant  pas  suivi,  il  n’y  pas  de différence significative à 95 % de chance de ne pas s’être trompé. Nous n’avons plus aucun moyen de travailler autour des situations sortant de la moyenne, ni même de savoir si elles existent. d = 0 ne veut   donc   pas   dire   qu’aucun   effet   n’est   atteste´,  mais   que statistiquement, par rapport à la fameuse hypothèse nulle, l’étude « prouve » qu’en suivant ce type de thérapie nous avons 1 chance sur 2 d’aller mieux ou moins bien par rapport au fait de ne rien faire. La thérapie fonctionne donc potentiellement dans un cas sur deux sans que nous pussions étudier le processus, ou l’importance des effets qu’ils soient positifs ou négatifs et même sans ne plus savoir ce qui a été  mesuré au niveau de la nature de l’effet.

Pour mieux nous rendre compte des limites reconnues des méta-analyses, y compris par les statisticiens, plongeons dans un exemple  concret  et  traduisons  les  résultats de  l’étude  de Glass (1976) en utilisant la table de conversion en pourcentage des d (Roth et Fonagy, 1996). S’appuyant sur 25 000 sujets issus de 475  études,  Glass  conclut  qu’il  n’y  a  pas  de  différence majeure  et  significative  entre  les  différents  types  de  psychothérapies mais que 75,2 % (d moyen = 0,68) des patients évoluent, en moyenne, davantage favorablement que la moyenne de ceux non traités à 95 % de chance que l’échantillon soit représentatif.

En  d’autres  termes,  autant  d’études  et  autant  de  statistiques pour revenir à la conclusion de Luborsky et al. (1975) obtenue à l’aide  de  «  simple  »  calcul  de  fréquence,  à savoir  que  toutes  les psychothérapies  se  valent  ?  Ces  chiffres  peuvent-ils  réellement apporter de nouvelles connaissances cliniques ou, au pire, aider les politiques  de  soin  à établir  cet  idéal  de  classer  par  efficacité  les psychothérapies ? En  nous  appuyant  sur  nos  précédents  travaux  (Blanc, 2015, p. 218), nous pouvons dire qu’entre la « meilleure » prise en charge globale (désensibilisation systématique, d moyen = 0,91, 81,9 %5) et la « pire » (Gestalt-Thérapie, d moyen = 0,26, 60,3 %) établit par Smith et Glass (1977) et calculé en pourcentage par nos soins, nous avons une différence  de  21,6  %  de  chance  d’aller  mieux  en  moyenne  avec  la meilleure prise en charge qu’avec la « pire » par rapport à la moyenne des personnes ayant aussi « un trouble» et n’allant pas consulter, et ce, à 95 % de chance que cela ne soit pas dû au hasard des échantillons. . . Et  ces  résultats brassent  des  populations  diverses,  souffrant  de trouble unique différent, traitées par des méthodes à très court terme toutes  différentes,  évaluées  toutes  par  des  outils  différents.  La générabilité et la validité externe de ces études se maintiennent ainsi uniquement derrière une illusion de scientificité mathématique. Il en va de même pour la validité interne, représentant la cohérence entre les outils utilisés et la  finalité  étudiée  :  en  ce  centrant  sur  la symptomatologie, les spécificités des prises en charge sont abrasées, à la recherche d’un hypothétique facteur général.

Autant dire que pour le patient lambda ou des politiques de soins un minimum raisonnées, l’intérêt clinique ou décisionnaire est bien faible, si ce n’est inexistant. . . à part attester qu’il vaut mieux aller consulter que de rester avec ses difficultés et qu’une politique  de  soin  en  accord  avec  les  études  commandées  pourraient, éthiquement et financièrement, conclure à une nécessité de prendre  charge  le  remboursement  des  psychothérapies  pour  le bien-être à long terme de ses citoyens.

Des critiques aux compromis et propositions actuelles

« Refuser de réaliser des études ne peut qu’aggraver cette situation en avantageant le groupe thérapeutique pour lequel les études sont plus aisées à réaliser (études courtes, appréciation exclusive des symptômes manifestes. . .) » Guelfi, 2009,  p. 93.

En cherchant une preuve à travers un modèle pharmaceutique et statistique, les recherches se sont fourvoyées tant cliniquement, qu’épistémologiquement : leurs résultats font disparaître la valeur de la mesure et imposent un retour au cas, à l’unicité de la mesure si  l’on  souhaite  rendre  compte  de  ce  qui  a  été   étudié  et  pas nécessairement prouvé. Ce qu’il faut retenir de toutes ces études c’est  que  «  la  preuve  d’efficacité générale  [des  psychothérapies] étant acquise, ce sont les conditions dans lesquelles elles s’expriment et la façon dont elles s’exercent qu’il s’agit aujourd’hui d’explorer » (Thurin et Thurin, 2007, p2). Un retour aux sciences humaines semble nécessaire pour étudier notre objet d’étude. En effet, ne pas prendre en compte l’aspect relationnel intersubjectif conscient et inconscient de la relation thérapeutique est une erreur scientifique  majeure,  de  même  que  de  ne  pas  proposer  –  et construire – une méthodologie de recherche permettant de rendre compte  de  l’objet  d’étude,  du  phénomène  observé –  et  donc  des attendus théorico-pratiques – de la prise en charge spécifique et spécifiée.  Dire  qu’une  «  thérapie analytique  »  ne  réduit  pas  le symptôme-cible en 3 mois avec une méthodologie laborantine non cohérente  avec  le  dispositif  proposé  est  aussi  incohérent  épistémologiquement que conclure à une non-efficacité d’une thérapie comportementale  sur  la  souplesse  associative  du  système  pré- conscient. . .

Pour autant, ne tombons pas dans un relativisme coupable où chaque dispositif aurait sa propre méthodologie de recherche, ses propres critères évaluatifs et d’estimer que, parce que les TCC sont davantage  en  adéquation  avec  le  modèle laborantin,  que  cela convient en termes de cohérence épistémique. De même, tout en convenant   que   les   critères   de   réfutabilité,   reproductibilité  et validités ne font pas forcément « science » par essence, peuvent-ils être pensés  en  adéquation  par  rapport  aux  dispositifs  thérapeutiques  proposés  aux  patients  ?  Tout  en  repartant  de  la  situation clinique  réelle,  quotidienne,  peut-on  penser  une  adéquation  des mode` les et des attendus, y compris en termes de politiques de soins qu’auprès des institutions, patients et thérapeutes ?

Un meurtre de l’idéal est nécessaire : il est impossible de tout prendre en compte dans une relation  thérapeutique, ou dans les évènements  extérieurs  pouvant  influencer  le  travail  thérapeutique. Pour autant, se centrer sur un certain nombre d’indicateurs, y  compris  la  réduction  symptomatique  prise  dans  sa  complexité clinique  incluant  l’aggravation  et  les  mouvements  de  régression mais aussi les évolutions fonctionnelles et internes des patients est nécessaire à la fois pour réaliser l’étude que pour pouvoir en rendre compte dans les cercles scientifiques mais aussi aux instances décisionnaires   qui,   actuellement,   demandent   du   chiffre   et   de l’efficacité.

A court  terme  indépendamment de  l’efficience  à long terme  ou  de  l’adéquation  entre  l’offre  et  la  demande. . .  Ainsi, attester  des  effets  et  du  processus  thérapeutique  des  prises  en charge à long terme est une exigence éthique clinique et doit aussi pourvoir se transmettre hors cercle d’initiés.

Dans cette perspective, une inscription dans la clinique réelle et quotidienne des praticiens semble une composante essentielle à une   évaluation   cohérente   épistémologiquement   à   son  objet d’étude.   Étudier   la   relation   thérapeutique   et   le   processus   se mettant   en   place   entre   un   psychothérapeute   proposant   un dispositif thérapeutique à un patient, irréductible aux autres, est un  des  premiers  critères à retenir.  Pour travailler  ce  qui  fait processus ou effet, cela n’a aucun sens d’exclure des protocoles les patients aux profils multifactoriels ou multi-diagnostics. Bien au contraire, le seul critère d’inclusion à retenir est que l’indication de ce  type  de  dispositif  thérapeutique  a  été  posée,  et  inversement comme  critère  d’exclusion.  De  plus,  afin  de  respecter  la  prise  en charge en condition ordinaire, nous ne pouvons demander au patient de faire « autre chose » que ce pourquoi il est là, c’est-à-dire sa psychothérapie, sur la durée nécessaire à sa « guérison » et non standardisée à l’avance, en tenant compte des enjeux éthiques et déontologiques  inhérents à  la   recherche   sur   des   personnes vulnérables.

Pour évaluer, il faut mesurer des phénomènes afin d’en rendre compte.   Mesurer,   ou   plutôt,   prendre   la   mesure   de,   n’a   pas obligatoirement à être quantifié d’emblée.  Il  s’agit  ici  de  repérer un  changement,  une  évolution ou  une transformation psychique ou relationnelle durant un traitement de manière qualitative puis, dans un temps second, transformer ces signes qualitatifs en grilles ou  tableaux (Brun, Roussillon, Attagui, 2016 ; Blanc, 2015)  ou`  ils pourront être quantifiables,  postpsychothérapie,  en  incluant  le praticien et des pairs extérieurs afin de travailler les données. Nous nous éloignons ici des  perspectives  importantes  dégagées  par Thurin et Thurin (2010 a et b) dans la lignée américaine de Fishman (1999, 2000) où, à partir de principes méthodologiques similaires à ceux que nous défendons, ils proposent des outils génériques et a-théoriques  pour  évaluer  différents  dispositifs.  Ici,  au  contraire, nous  proposons,  à partir  des  critères précédents,  de  soutenir  et expliciter les démarches visant à construire des outils d’évaluation partant   de   la   clinique,   s’appliquant   à  la   clinique   et   pouvant s’utiliser  dans  des  cadres  similaires  autour  de  catégorisations  de signes cliniques.

Ces   signes   cliniques   tirés   de   la   pratique   quotidienne   du dispositif, qualitatifs par essence et devenus quantifiables par et pour la recherche, permettraient de s’adresser aux décisionnaires, aux  politiques,  sans  aliéner  l’éthique du  traitement  et  sa  temporalité propre, en différenciant le temps du traitement (évaluation interne au cas par cas des effets du dispositif thérapeutique sur le  patient)  du  temps  d’évaluation  s’adressant  à un  extérieur  à la relation  thérapeutique  (évaluation  externe,  n’influençant  pas  le traitement   fini,   mais   pouvant   infléchir   et   faire   évoluer   les dispositifs,  théorisations  et  pratiques,  et  pouvant  se  quantifier, voire  permettre  une  agrégation  des études  de  cas  intensives)  avec comme potentielle seule variable contrôlée des temps de relevés de protocole prévus à l’avance et pouvant se résumer à des notes extensives de séances traitées et évaluées dans un après-coup. Ces mesures  de  départs,  intermédiaires  et  finales,  favoriseront  une comparaison à des cas analogues analysés selon une méthodologie similaire (Ablon et Jones, 1998).

Quid  alors  des  critères dominants  hors  champ  des  sciences humaines dans ce mode` le ? Nous pourrions simplement les exclure, mais un certain nombre de chercheurs ont tenté de les prendre en compte et en allant encore plus loin, nous pourrions même y trouver une certaine force, ici davantage de persuasion et d’audibilité du discours, que d’accroissement des connaissances en soi, mais tout de même. Expliquons-nous.

Toute mesure, tout repérage clinique, ne peut s’entendre qu’à travers lui-même et qu’à travers le lieu même d’où il provient. Par exemple, nous pouvons mesurer la tristesse avec des échelles. Pour autant, le vécu concret subjectif intra-individu « tristesse » ne peut être accessible,  mesurable,  dans  la  rencontre  thérapeutique  que dans cet entre-deux permettant de prendre la mesure de, dans un référentiel donné. L’élément dont on rend compte n’a de valeur que dans,  pour   et   à  travers   ce   référentiel.   Toute   mesure,   même objective  ou  objectivée  n’a  d’intérêt  clinique  ou  évaluative que dans sa prise en compte même de cet entre-deux relationnel et du subjectif, dans le sens de « propre au sujet » et inscrit non pas dans une thérapie aseptisée, mais bien dans le référentiel d’application théorique et clinique de la démarche psychothérapique, y compris si son dispositif, comme dans un traitement psychanalytique, vise la  non-reproductibilité,  la  surprise  et  l’inattendu  car  c’est  bien précisément  dans  cette  composante  que  se  joue  le  processus thérapeutique clinique et non dans l’application d’un manuel dans le sens où toute psychothérapie est influencée par la rencontre et ne  s’applique  pas  de  manière  stricte.  La  question  de  l’existence même de « manuels » ouvre de vastes débats. Même si cela dépasse notre propos, notons les remarques de Silverman (1996) qui vient interroger le processus de décision, de validation d’un manuel ou encore la retenue de telle ou telle méthode dans une ECR ? À  ces remarques,  joignons  celle  de  Haaga (2004)  qui  rappelle,  à  juste titre,   qu’un   manuel    est    constitué   d’éléments    a   priori    qui s’appliquent en situation et leurs utilisations ne permettent en rien de savoir ce qui agit parmi eux dans le traitement, ni à quel moment ils agissent.

Ainsi, la cohérence épistémologique évaluative doit passer par l’appréhension  de  cet  inattendu propre  à    chaque  sujet, à chaque rencontre  et à chaque  prise  en  charge.  Pour  autant,  la  méthode analytique, tout en s’appliquant différemment à chaque analysant, repose sur des essentiels tels que l’écoute, la prise en compte de l’inconscient et des enjeux transféro-contre-transférentiels – pour ne citer que ces composantes. La question d’une quelconque reproductibilité doit reposer sur un dégagement des enjeux de la méthode psychothérapique propre à chaque  dispositif  thérapeutique  propose à l’irréductible individualité de  chaque  sujet  pris comme  son  propre  référentiel,  tout  en  ayant  dégagé  des  indicateurs et signes cliniques, à la fois au niveau théorique, clinique et posttraitement des évolutions, changements ou transformations, à la fois attendus et non-attendus, mais permettant de rendre compte de  ce  qui a  bougé de  manière globale  et  inscrite dans la clinique du cas.

La reproductibilité peut donc exister non pas dans la standardisation  du  traitement,  mais  dans  la  prise  en  compte  même  de  la spécificité  du  dispositif  proposé   et  de  la  rencontre  clinique.  Le reproche  pourrait  nous être formulé que  cela  ne  rend  pas  notre recherche reproductible dans le sens où  la relation et ce qui s’y joue au niveau technique et interrelationnel ne sont pas identiques d’un patient à l’autre. Effectivement, nous ne pourrions dire le contraire, sauf que la relation est ce qui est thérapeutique, la reproductibilité doit venir du cadre et du dispositif en nous centrant sur les conditions même d’apparition du phénomène que nous souhaitons étudier et non sur une standardisation à outrance de la relation.

Pour résumer, afin de respecter la subjectivité du patient et les visées du dispositif de soin mis en place, il nous semble essentiel de devoir déplacer la question de la reproductibilité, de la réfutabilité, de la générabilité et des validés interne et externe de la méthodologie générale visant à lisser l’individu, à une méthodologie qui se centre sur cet individu en le prenant comme son propre référentiel, comme son propre témoin (et non par rapport à une donnée qui lui préexiste  statistiquement).  Ce  type  de  méthodologie,  que  nous pouvons « classer » dans les études de cas intensives centrées sur les processus-résultats, consiste en une étude du processus et des effets au cas par cas en prenant comme point de départ le patient et en isolant les facteurs susceptibles de « changer » en rencontrant et co-créant  le  processus  avec  la  méthode  thérapeutique.  Il  s’agit donc de mesurer, repérer ou calculer des  indicateurs de  change- ment qui prendront sens dans la clinique du patient, avant de pouvoir être regroupés  et  synthétisés par  agrégations  et  regroupements de patients suivis par le même dispositif et « analysés » par  la  même  procédure  méthodologique,  uniquement  dans  un temps  second,  servant  ainsi  à la  fois  la  clinique  de  la  méthode thérapeutique choisie, et la question de l’évaluation à proprement parler de cette méthode en prenant comme propre référentiel de chaque valeur, calcul et/ou indicateur clinique le patient et son individualité. De plus, étudier les spécificités d’un dispositif et de ses visées n’exclut,  ni  d’étudier  les  effets  globaux  et  dits  «  objectifs  »  de  la méthode,  ni  que  cette  manière d’étudier  le  processus  psychothérapique doit nécessairement s’exclure d’une inscription dans la réfutabilité ou la reproductibilité, comme nous venons de l’étudier et en oubliant pas qu’une reproductibilité en sciences humaines n’est  pas  dans  le traitement  des  donnée sou  dans le phénomène observé  mais  dans  la  méthodologie  employée  pour  en  rendre compte, là où la réfutabilité l’est dans la confrontation aux pairs des  données  et  dans  l’explicitation  des  choix  d’indicateurs  et  de leur cotation.

Par exemple, à la suite de nos travaux de thèse (Blanc, 2015) où nous  avons   proposé   une   méthodologie   basée   sur   les   critères précédents et abouti à la construction d’une grille d’évaluation du psychodrame psychanalytique individuel, nous travaillons actuellement sur cet outil sur plusieurs sites afin d’affiner les indicateurs, les  signes  cliniques  et  leurs  évolutions  afin  de  pouvoir  rendre compte à la fois des processus et des effets thérapeutiques en jeu pour chaque patient suivi, que de pouvoir travailler à des agrégations   de   situations   cliniques   suivis   durant   tout   leur traitement  selon  une  méthodologie  et  un  temps  de  relevés  des données similaires   sur   plusieurs   sites   cliniques   permettant également de  s’adresser  à des  non-analystes  sans  perdre  de  vue notre manie` re de travailler et d’exister au sein des institutions de soins. Nous pouvons ainsi mettre au débat dans l’espace public nos résultats tout en préservant en termes de méthodes, techniques et intimité  ce   qui   se   déroule   au   cœur   de   l’espace   privée   des expériences cliniques.

Perspectives conclusives

« (. . .) le choix de la méthode ne dépend pas d’a priori théoriques mais de la nature de l’objet et des buts de la recherche » Wdilöcher, 2004, p. 17

Évaluer. Outre les aspects de politiques ou de vérités, pour la clinique quotidienne analytique, les résistances se situent non pas dans l’objet même de l’évaluation ou du thérapeutique, mais dans la   formalisation   même   de   l’objet   de   la   recherche   évaluative. Évaluer revient à mettre en mot – et nécessairement réduire – une pratique intersubjective,  prenant  en  compte  des  enjeux inconscients  et  des  processus  particulièrement  ardus à traduire ou à transmettre, qui plus est dans une clinique de l’associativité ou de la mise en signe et en sens de la vie psychique. Pour autant, se saisir de ce pan de la recherche reviendrait également à mettre au travail et    soutenir    la    reconnaissance    des    spécificités    d’un    travail psychanalytique  et  de  son  processus thérapeutique,  qui  ne  se résume pas  à l’extériorité ou à la question symptomatique, mais qui ne l’exclue pas par ailleurs. Développer une méthodologie de recherche sur l’évaluation concordante épistémologiquement aux approches  psychothérapiques  psychanalytiques  est  un  chantier dont nos considérations précédentes pointent l’extrême acuité et ce tournant est en cours et doit être poursuivi et soutenu, y compris pour  les  dispositifs  plus  classiques  (divan,  face-à-face,  etc.).  La question de l’évaluation a toujours pose moins de difficultés pour les praticiens de dispositifs plus originaux (psychodrames, groupes, médiations, etc.), sans doute du fait même de la nécessité de rendre compte de l’existence de processus authentiquement psychanalytiques en leur sein (cf. Brun et al. 2016 ; Blanc, 2015).

N’oublions   pas   que   cette   saisie   de   la   problématique   de l’évaluation par  les  psychanalystes  et  psychologues  cliniciens  de terrain rencontre également, d’une certaine manière, la réalité de l’évolution  du  soin  actuel  qui  est  plus  en  plus  calculé,  médicamenté, ou réduit à peau de chagrin et où  chaque jour se retrouvent en conflit  les  réductions  budgétaires, la  hausse  des demandes  et une  philosophie  de  l’être humain  et  du  soin  particulièrement difficile à défendre. Même si Freud a toujours rechigné à penser la psychanalyse  comme  une  philosophie  de  l’être humain  –  et  pas uniquement  comme  une  psychothérapie  prenant  en  compte  les phénomènes   inconscients   et   transférentiels   –   c’est   bien   une éthique  et   une   vision   de   l’être humain   et   de   son   extrême singularité qui  se  retrouvent  également débattus  sur  le  terrain de l’évaluation.

Travailler uniquement l’objectivation des effets sur les symptômes  ne permet  pas  de  mettre en lumière l’influence  du  traitement sur le fonctionnement de la personne, sur ce qu’elle est et sur ce  qui  a  changé en  elle.  Même après un traitement  médicamenteux, une personne – et son fonctionnement immunitaire – n’est pas, plus, exactement la même : quelque chose s’est passé en elle. Guérir, ce n’est pas retourner à un stade antérieur comme s’il ne s’était pas passé. Se centrer sur le symptôme sans l’inscrire également dans un processus d’historicisation reviendrait à oblitérer les raisons de son existence et de sa naissance à ce moment-là, chez cette personne-là. L’essentiel n’est pas tant la disparition que ce qui s’est passé en elle la permettant : le processus est toujours plus fondamental que la surface.

L’ étude du processus ne peut s’inscrire que dans l’unicité du cas, même  si  nous  pouvons  évaluer  en  après-coup,  à des  moments particuliers, ou regrouper des cas ou des situations suivies par le  même  dispositif  thérapeutique  en  seconde  approche.  Cette démarche, nécessaire, ne doit pas faire disparaître la réalité de la clinique. A savoir, si cela a fonctionné pour un sujet, si le processus a été efficient,  c’est  profondément  inscrit  dans  l’unique  de  la rencontre qu’il l’a été. C’est une force pour la suite, pour le suivant, mais pas pour offrir un prêt-à-porter au prochain avec ce qui a  été construit dans l’unique de la rencontre thérapeutique précédente. Si   réussite   ou   efficience   a   été  trouvée,   elle   est   toujours   co-construite et c’est davantage la méthode analytique d’écoute qui peut faire figure de parangon psychothérapique sans tomber dans le risque d’une protocolarisation de la recherche du « signe clinique » ou d’une recette toute-faite qui déshumaniserait l’être humain et la richesse de la rencontre en oubliant pas que tous tableaux,  grilles  ou  classifications,  même  construits  en  seconde main,   une   fois   établis,   risquent   dans   la   transmission   ou   la transposition de perdre l’origine clinique, riche et mouvante comme si elle correspondait à une réalité réelle idéale préexistante à l’objet d’étude. Mais c’est un risqué à prendre si nous ne voulons pas voir nos pratiques évaluées par d’autres champs épistémologiques que celui que nous pratiquons au quotidien.