Le fétichisme des chiffres

Le fétichisme des chiffres

(Des mots, des ouvrages, des actes et des normes 4)

 

Pour promouvoir la psychothérapie « scientifique », chose qui n’existe pas, ses avocats n’hésitent pas à faire appel aux chiffres : les statistique en particulier, ça fait très sérieux. Et cela impressionne le public laïc, des législateurs par exemple qui n’ont la plupart du temps au fond aucune idée de ce que la recherche scientifique concrète exige.

 

Ces laïcs croient par exemple que ce qui est scientifique est vrai, sans plus, alors que toute vérité scientifique est au contraire une vérité extrêmement conditionnelle : telle ou telle hypothèse (je dis bien hypothèse, donc proposition, et non praxis, donc acte) est vraie mais seulement à la mesure d’une procédure précise. Cette dernière a été conçue par un chercheur en fonction de ses questions et ses hypothèses : il crée des conditions expérimentales que l’on ne retrouve quasiment jamais telles quelles quand on a affaire à du phénomène en dehors d’un laboratoire.

Quant aux chiffres, il faut les questionner, examiner leur pertinence, ne fût-ce qu’en demandant ce qui est chiffré et ce qui ne l’est pas, qui a décidé ce qu’on quantifie, quel est son point de vue, et quelles questions cette prise de position empêche de poser ou présuppose résolues. On a parfois l’impression qu’il suffit de donner quelques statistiques pour que des gens pourtant doués d’une faculté de juger, suspendent toute réflexion propre. Ils réagissent comme si les chiffres étaient la réalité, toute la réalité, rien que la réalité : ils fétichisent les chiffres. Et ils oublient que ces chiffres eux-mêmes ne dictent pas comment s’y prendre à partir de là, qu’il y a un gouffre entre ceux-ci et les actes à poser dont les conséquences ne sont pas chiffrables ‒ sauf dans les fantaisies des spécialistes de l’ingénierie sociale, ceux que Hannah Arendt, dans ses réflexions sur les Pentagon Papers, appelait « les spécialistes de la solution des problèmes ».

Commençons par un petit exemple, repris à un domaine n’ayant rien à voir avec la clinique, mais qui permettra de comprendra à quel point les données en chiffres, traitées statistiquement ou non, sont à accueillir avec prudence.

Un jour, Giuseppe Cavallotto, un ami vigneron piémontais, me dit que leur petite station météo, plantée depuis des décennies au cœur du vignoble familial, le Bricco Boschis à Castiglione Falletto, enregistre un changement de météo, depuis quelque part au milieu des années 1990. Très bien. C’est certainement vrai, d’autant plus que le vigneron constate que le jus des raisins récoltés depuis demande une autre approche qu’avant pendant le processus de vinification. Mais qu’est-ce que cela veut dire, ces changements enregistrés ? Qu’est-ce qui est rendu intelligible ? Et surtout, qu’est-ce qui explique ces changements ? Et puis, qu’est-ce que cela implique pour un vigneron ?

D’abord, s’agit-il de pluviométrie, de température ou d’autre chose encore ? Prenons la pluviométrie. La neige pendant l’hiver ne dérange pas, alors qu’un excès de pluie est néfaste à divers moment du cycle végétatif. Il y a la coulure par exemple (l’empêchement de la mise à fruit due au fait que le pollen est lavé par des pluies abondantes), il y a diverses formes de champignons dont le développement est favorisé par un excès d’humidité et de chaleur, il y a la force destructrice des orages d’été avec les giboulées qui arrachent les grappes et mêmes des branches entières et il y a le risque de la dilution du suc des baies matures due à la pluie pendant les vendanges. Il se pourrait qu’il y ait autant de précipitations qu’avant au cours d’une année, mais que le problème soit leur répartition sur l’année, par exemple tout en été, rien en automne ou au printemps. C’est important, car les conséquences ne sont pas pareilles ! Il ne suffit pas de donner des moyennes annuelles, il faut les préciser.

Prenons ensuite la température. Les moyennes enregistrées ne sont plus les mêmes qu’avant, elles ont augmentées. D’accord, mais si elles n’ont augmentées que de 0,2°C, c’est négligeable par rapport aux moyennes habituelles. On ne peut pas dire que ce soit anormal ou fou, pazzo, pour reprendre le mot de Giuseppe. S’il s’agit au contraire d’une augmentation de 2°C, alors là, c’est une autre paire de manches ! Pour les vignerons, mais pas nécessairement pour les touristes. Mais, au fond, de quelles moyennes s’agit-il, encore une fois ? Des moyennes annuelles ? Des moyennes saisonnières ? Des moyennes nycthémérales ? C’est crucial pour le vigneron.

Le gel, ça n’est pas un problème, tant que cela n’est pas subarctique ou arctique. La chaleur excessive, ça peut être problématique, pour des jeunes vignes, sans enracinement profond. Ou pour un terroir sablonneux qui dessèche plus vite qu’un terroir argileux. Ou quand il fait non seulement chaud mais aussi très humide, ce qui ne convient pas au vignerons, mais très bien aux trufolaio, qui récolte les truffes blanches en novembre. Et si les nuits sont chaudes, au lieu de voir baisser les températures au bon moment, en septembre et octobre, alors le précieux Nebbiolo surchauffe au lieu de développer la finesse de ses arômes : le vin ne sera pas nécessairement mauvais, mais le consommateur devra s’adapter, car son nectar ne se gardera pas aussi longtemps. Ou le vin sera plus lourd, parce que plus alcoolique, ce qui pourra plaire au public de Robert Parker, mais pas à d’autres amateurs, plus européens. Et l’amateur de vin peut toujours tricher un peu, en servant le vin plus fort en alcool plus frais, sans exagérer toutefois, car un rouge tannique servi trop froid, finit par goûter le tannin principalement.

Mais qui plus est, il serait naïf de croire que la réussite d’un bon Barolo ne dépende que des seuls facteurs nommés : la pluviométrie et les températures, combinées à d’autres facteurs tels l’âge de la vigne ou la structure géologique du sol. D’autres facteurs jouent un rôle, et pas chaque année le même. Et surtout : certains de ces facteurs sont quantifiables, chiffrables, alors que d’autres ne le sont nullement. 

Un cépage demande une exposition particulière, une altitude adéquate: vous pourrez planter le Nebbiolo à 300 mètres, sur un versant sud-est, sud ou sud-ouest, mais jamais à 550 mètres sur un versant nord-est : le Nebbiolo n’est ni le Dolcetto ni l’Arneis. Si vous replantez un vignoble vous aurez à choisir entre plusieurs clones, ayant chacun leurs caractéristiques particulières, au vu des rendements, de la couleur, des arômes, de leur sensibilité aux maladies. Un vignoble aéré sèche plus vite, mais est également exposé à des vents peut-être trop froids, une conque chauffe davantage que les crêtes de colline ou les parcelles surplombées par des forêts qui aspirent la chaleur.

Le vigneron profite ou non de l’expérience des générations précédentes, veut s’en démarquer ou pas, a suivi une formation poussée ou élémentaire, est tombé dans la marmite comme Obélix ou pas, a fait des stages à l’étranger ou non. 

D’autres facteurs jouent également un rôle: les abeilles par exemple qui répandent le pollen nécessaire à la floraison, mais qui sont menacées en certains endroits. Le choix des méthodes de luttes des maladies, raisonnées, bios ou toxiques. Les vendanges vertes nécessaires pour réduire la production à 7 ou 8 grappes, ce qui n’empêche pas certains d’en laisser 11 et d’autres de n’en garder que 3 ou 4. La date de la récolte, la méthode de vinification (en vasques de ciment vitrifié, en cuves d’inox à température contrôlée, en rotofermentateurs d’acier…), la durée et le mode de vieillissement (en bois, et en bouteille), Les fluctuations du marché international. Les goûts de la clientèle. La législation. L’impact des publications de certains journalistes tel Robert Parker et Antonio Galloni. Et cetera.

 

Par ailleurs, comment expliquer les variations de quelques moyennes? J’ai pu assister à un débat publique où un autre vigneron, Enrico Dellapiana, de la cantina Rizzi à Treiso dans le Barbaresco, argumentait que le climat a changé, oui, mais en un certain sens seulement : celui qui adopte un autre point de vue, moins restreint dans le temps, peut argumenter, en regardant la météo sur quelques millénaires, qu’il y a toujours eu des variations, des petites périodes glaciales, des périodes de réchauffement et des périodes plus mitigées, indépendamment des activités humaines. Ce qui explique les variations enregistrées par la petite station météo familiale, est donc objet à discussion.

 

Last but not least, quelle conclusion faut-il tirer de ses enseignements ? L’impact de ces variations, plus que probablement accélérées par les activités humaines, pose des problèmes à résoudre à bien des niveaux, au niveau d’un cru particulier, au niveau d’un village, à l’échelle de la Région Piemonte, au niveau de la république italienne, au regard de l’Union européenne qui n’est ni la Chine émergente ni les USA d’un président sans soucis écologiques, et à l’échelle planétaire.

Et le vigneron, qui se retrouve à tous ces niveaux à la fois, doit trouver des réponses, comme il le peut, dans son contexte singulier. Il ne peut pas changer le climat, mais il peut agir à l’intérieur de certaines limites d’ordre divers. Il doit choisir ce qu’il veut, des vins de marque, a brand, ou des vins chaque année uniques quoique typés et reconnaissables. Il est capable d’estimer la qualité de son produit, et les raisons de son succès chez une certaine clientèle locale et internationale. Il pourrait se réorienter vers une nouvelle clientèle, qui adore les vins puissants, fruités, alcooliques, une clientèle (dé)formée par les goûts de Robert Parker, ne cherchant pas à consommer quelques bouteilles au cours d’un repas lentement savouré, mais se contentant d’un verre de breuvage époustouflant, a little bit heady though.

Le vigneron peut également choisir de maintenir ce qu’il privilégie depuis toujours au regard de ses clients habituels qui estiment que le bois n’est pas un cépage et qui ne veulent que du Barolo traditionnel, vieilli en grands foudres de chêne slovénien non toasté, des vins à attendre patiemment, plutôt qu’à boire jeunes sur le fruit parce que vieillis en barrique de chêne français après une brève fermentation à haute température.

En tant que viticulteur-vinificateur il peut alors mettre à l’œuvre ses compétences techniques pour fabriquer son produit autrement pour ne pas trop en modifier les caractéristiques, dans une certaine mesure : il peut changer ses interventions, par exemple la durée des fermentations, ou la température maximale pendant le processus de fermentation alcoolique. Mais même s’il veut produire un bon Barolo traditionnel, il ne pourra empêcher que le degré d’alcool potentiel des raisins à récolter soit plus haut qu’avant, car il ne peut pas cueillir les raisins sans attendre que la maturité phénolique soit atteinte. Le degré d’alcool du produit final sera supérieur à ce qu’il a été jusqu’au début des années 1990. Rien à faire ! Le taux minimum d’alcool pour un Barolo est légalement fixé à 13,5 degrés. Mais la plupart aujourd’hui font du 14,5.

 

C’est ça, la réalité, “le principe de réalité”, pour parler comme Freud. Il y a des choses qui ne sont pas possibles, pour diverses raisons, en l’occurrence : des raisons légales (le cahier de charge de l’appellation d’origine contrôlée) et des raisons physiques (les changements climatiques).

On pourrait aussi dire avec Karl Popper que les lois scientifiques qui expliquent le réel, ne disent pas tant ce qui doit être le cas que ce qui ne peut pas être le cas. Et Sigmund Freud n’aurait pas manqué d’ajouter : il se fait que les humains sont à la recherche de plaisir, et la plupart du temps à la recherche d’un plaisir perdu. Ils se répètent donc, parfois en la plus parfaite méconnaissance de ce qui est réellement impossible pour diverses raisons. Mais au meilleur des cas ils trouvent des réponses originales, dans les limites du possible, tout en se faisant plaisir quand-même. Ils prendront ainsi en compte les chiffres ou si vous voulez les sucs plus riches en alcool potentiel, ils devront bien, mais on aura compris que ce ne sont pas quelques moyennes statistiques qui leur permettront de produire un vin original, singulier, qui exprime les particularités d’un terroir et d’un millésime, et qui est marqué par la patte du vigneron.

 

Résumons, en attendant de revenir au champ clinique, qui est ma foi bien plus compliqué que celui du vin, dans la mesure où le vin est un produit maniable alors que l’humain est un être, un sujet, une personne.

Ça veut dire quoi les chiffres ? Donner des chiffres, des moyennes par exemple, c’est dire quelque chose mais quoi au juste ? On peut donner quantité de chiffres, mais comment décider lesquels sont pertinents ? Quelles sont toutes les constantes et toutes les variables à prendre en compte dans une situation particulière ?  Et surtout, qu’est-ce qui explique les chiffres ? Et puis, qu’est-ce qu’on en fait, de ces chiffres, surtout lorsqu’on se retrouve dans une situation qui n’est pas réductible à des moyennes ? Comment agir face à ce qui n’est pas calculable?

 

Soit : que faut-il penser des statistiques, telles qu’on en retrouve les résultats dans des manuels diagnostiques et statistiques comme le DSM (le manuel diagnostique et statistique des troubles mentaux)? Est-ce que c’est vraiment scientifique ?

Il faut savoir que les psychanalystes n’utilisent jamais le DSM, mais que beaucoup d’autres cliniciens l’utilisent comme si c’était le Graal de l’objectivité, comme si ce genre de manuel à base statistique reflétait la réalité des maladies psychiques sans plus. Ces cliniciens en font leur référence principale dans leur travail quotidien, à la fois pour établir des diagnostics et pour décider des stratégies d’intervention psychothérapeutique.  À poursuivre.

2 Comments

  1. Belle illustration des différents problèmes de validité intérieure et extérieure des tests standardisés en psychothérapie !

    Sans même entrer dans les détails intéressants qui rendent la démarche d’évaluation empirique des psychothérapies d’une complexité redoutable – bien plus importante que celle de la viticulture –  il y a un aspect, presque trop évident, qui semble régulièrement supposé acquis dans cette discussion : est-ce que même formellement, la démarche en question remplit les critères de la scientificité ?

    Évidemment, poser la question ainsi, c’est ouvrir l’épineuse question du critère de la démarcation ; question qui n’a pas encore été résoule jusqu’à ce jour et dont le falsficationnisme si souvent cité de Popper ne représente que le point de départ.

    Établir si “telle ou telle hypothèse […] est vraie” requiert en effet quelques minima épistémologiques pour pouvoir être susceptibles de scientificité. Des minima qui ne sont pas aisément satisfaits.

    Et voilà justement un problème de taille.

    En admettant que Giuseppe Cavallotto sache parfaitement s’y prendre avec tel gel, avec telles précipitations à tel moment de l’année pour produire un vin de qualité avec telles raisins de poussant sur telle pente, etc., il en sera un vigneron d’un grand savoir faire. Il saura aussi produire un vin de grande qualité avec une grand qualité et ce malgré la variations décrites. Mais il n’est pas exagéré d’affirmer qu’il n’en sera pas encore pour autant un scientifique. Pas un défaut en l’occurrence  : il sera artiste viticulteur, mais pas scientifique. Car ce qui manque à sa démarche, c’est justement d’avoir mis à l’épreuve une hypothèse explicative générale prenant la forme d’une loi naturelle générale, et reproductible sous des conditions identiques.

    Abordons le problème dans le contexte du positivisme tardif (ultérieur donc au néo-positivisme de l’École de Vienne pour laquelle le problème de démarcation ne se sposait pas encore en ces termes).
    Dans cette perspective la supposée ‘science’ psychothérapeutique, ou du moins la procédure d’évaluation de l’efficience des techniques thérapeutiques, pour satisfaire aux critères de scientificité, devrait satisfaire un modèle nomologique-déductif tel que celui formulé par Hempel et Oppenheim (en 1948)  :

    1. énoncés des lois ou théories explicatives
    2. énoncés décrivant la situation initiale

    —————————————————————

    1. énoncés décrivant le phénomène expliqué

     

    1 et 2 représentant l’explanans, 3 l’explanandum. On remarquera au passage que la scientificité ici est attribuée à des énoncés, si bien que l’explanandum doit pouvoir être déduit comme conséquence logique de l’explanans.

    La formulation logique du cas le plus élémentaire du modèle DN (qui fournit également la base du modèle d’explication statistique DS) sera :

       (x)(Rx Bx)
       Rc
      ———————–
       Bc

    Ce modèle vaut autant pour l’explication que pour prédiction et la post-diction en sciences naturelles. Sur le plan logique, il se caractérise donc par une implication matérielle du calcul des propositions (équivalent à ¬(p∧¬q)) où l’explanans figure comme antécédant et l’explanandum comme conséquent.

    Ce qui change dans le cas de l’explication statistique, c’est selon la formulation de Hempel le simple fait qu’ici "certaines lois ne sont pas strictement universelles, mais d’un caractère statistique". Il en résultera que la nature probabiliste de ces lois se répercutera sur la ‘déduction’ (l’explanandum) elle-même.  Or Hempel lui-même aura déjà noté qu’en toute rigueur, on ne pourra plus parler de déduction logique à proprement dans ce cas. Différence qui affecte également la prédictibilité, et la rend seulement plus ou moins probable.

    Hempel envisage aussi un troisième modèle d’explication scientifique : le modèle inductif-statistique (IS). Cette dernière tient évidemment dans la démarche inverse, c’est-à-dire dans la subsomption d’événements particuliers sous des lois statistiques plus générales.

    Or, dans l’étrange positivisme de la science psychothérapeutique, la scientificité repose néanmoins sur l’absence des lois explicatives au niveau de l’explanans. Pour être scientifique, il faudrait éviter des hypothèses explicatives telles que proposées par la psychanalyse. Et l’évacuation de ces hypothèses implique l’évacuation correspondante d’énoncés de lois.

    Pour pouvoir parler de “loi” scientifique, il ne suffit pas d’indiquer des généralisations accidentelles du type : pour tout x, quand j’applique R (disons : un type de thérapie), B (disons : une rémission symptomatique) s’en suivra avec une régularité statistique S. Ou, selon l’exemple préféré de Hempel : le fait, supposé vrai, que tous les membres du conseil d’administration de l’école de Greensbury sont chauves, ne constitue pas une loi, mais seulement une généralisation accidentelle vraie.

    La question de la différence entre une loi et une généralisation empirique reste évidemment fortement débattue en logique et en épistémologie des sciences, car elle touche au problème difficilement soluble de l’induction de Hume (qui fût justement reprise par Popper dans sa critique du rôle de l’induction au sein néopositivisme logique).

    Hempel lui-même s’avoua incapable de résoudre la question de manière très convaincante, ce pourquoi il finissait par affaiblir la distinction initiale en distinction entre des généralisations law-like et des généralisations accidentelles.

    Mais il reste du moins une indication intuitive : si tous les membres du conseil d’administration sont chauves ne représente qu’une généralisation empirique, l’affirmation que tous les gas s’étendent en étant chauffés à pression constante constitue bien une loi élémentaire de thermodynamique.

    Or, la science psychothérapeutique, de même que le DSM ou l’ICD sur lesquels les conditions de la situation initiale sont basées, revendiquent avec leur approche dite a-théorique la suppression de toute référence à des généralisations du type d’une loi naturelle, voir même d’énoncés law-like.

    Ces lois, ou ces énoncés law-like sont pourant nécessaires pour répondre à la question du pourquoi ("a DN explanation answers the question “Why did the explanandum-phenomenon occur?” ", Hempel 1965). L’explication scientifique ayant comme trait caractéristique de fournir les éléments relatifs au pourquoi d’un phénomène, pas seulement à son fait ou son existence. Ce sans quoi on ne dépasse guère la description séquentielle d’événements.

    L’affirmation que tel type de thérapie conduit avec telle régularité à tel résultat ne serait dès lors pas différente de l’affirmation que la pleine lune conduit à tels comportements irrationnels chez telles personnes avec une telle fréquence probable. Bref  : sans loi, pas de science. Pas même de distinction entre science, pseudo-science et non-science.

    C’est la raison aussi pour laquelle, dans l’ensemble de ces études dites "scientifiques" sur les psychothérapies, on trouvera bien des évaluations statistiques du rapport entre la méthode thérapeutique appliquée et le résultat obtenu, mais on y cherchera en vain la raison, la loi, le "pourquoi" du lien entre la méthode et les résultats.

    C’est ce qui fait toute la différence entre une recette de cuisine et une démarche scientifique.

    La ‘science’ psychothérapeutique fournit des recettes de cuisine statistiques de modes de cuisson standardisées sous les conditions d’une cuisine stérilisée, mais elle reste parfaitement muette sur le plan de l’explication scientifique.
    La pratique psychothérapeutique qui s’inspire des résultats de cette science est censée réchauffer les plats statistiques en les applicant aux procédés et interventions quotidiens sous les conditions variables et aléatoires de la réalité.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.