Intelligence artificielle et santé mentale : entre risques et opportunités

Ces derniers mois, certains événements d’actualité ont mis en lumière un phénomène alarmant : des personnes qui, dans des moments de profonde fragilité, ont parlé à des systèmes d’intelligence artificielle avant de se suicider. Heureusement, il s’agit bien sûr d’épisodes isolés, mais ils soulèvent des questions urgentes sur la relation entre intelligence artificielle et santé mentale.

En Italie et dans le monde, en effet, le nombre de ceux qui s’appuient sur les chatbots et les plateformes numériques comme « psychothérapeutes virtuels » pour des raisons de commodité, d’accessibilité ou de discrétion est en augmentation.

L’intelligence artificielle se retrouve ainsi dans une position ambivalente : d’un côté nous reconnaissons son grand potentiel, de l’autre nous ne la connaissons pas encore assez pour pouvoir l’intégrer de manière responsabilisante dans nos vies, sans qu’elle soit source de nouveaux dangers !

Psychothérapie et technologie

Grâce à l’avènement des plateformes en ligne et à la poussée du Covid, ces dernières années, de plus en plus de personnes ont commencé à expérimenter la psychothérapie en ligne. En fait, de 2020 à aujourd’hui, on estime que plus de 3 millions d’Italiens ont eu au moins une séance de psychothérapie en ligne.

Il s’agit d’un changement culturel, plutôt que technologique, qui nous indique que de plus en plus de personnes perçoivent le numérique non pas comme un « palliatif », mais comme une possibilité supplémentaire de prendre soin d’eux-mêmes, souvent moins chère et compatible avec la vie quotidienne et le chaos.

Cependant, nous parlons toujours de séances (quoique en ligne) dispensées par des spécialistes et des spécialistes de la santé possédant une formation et une expérience adéquates. Pour comprendre comment évoluent les préférences et les attitudes à l’égard des différentes modalités de traitement psychologique, il est utile de se pencher sur une étude menée aux États-Unis et publiée dans Nature en 2019.

Cette étude a analysé les préférences des adultes en comparant :

  • thérapie traditionnelle en face à face;
  • thérapie numérique dirigée par des experts;
  • thérapie numérique autoguidée.

Les résultats montrent que 25,6 % des personnes interrogées préfèrent les traitements numériques autoguidés (c’est-à-dire les programmes ou applications de thérapie en ligne qui n’impliquent aucun professionnel en temps réel) tandis que 19,7 % préfèrent la thérapie numérique guidée par un expert, c’est-à-dire un logiciel développé et supervisé par des professionnels de la santé mentale mais sans interaction directe et continue avec le thérapeute humain.

La thérapie traditionnelle reste donc le choix principal pour la majorité, mais la volonté de s’appuyer sur l’intelligence artificielle ou les programmes numériques a augmenté ces dernières années également pour des raisons telles que l’accès immédiat, la confidentialité et la réduction de l’embarras.

ChatGPT, Gemini et « les autres »

Lorsqu’on parle d’intelligence artificielle appliquée à la santé mentale, il est important de distinguer deux types d’outils.

D’une part, il y a les intelligences artificielles généralistes, c’est-à-dire les chatbots comme ChatGPT, Gemini ou Claude, accessibles via smartphone et utilisés de manière autonome par l’utilisateur ; de l’autre, les IA développées et supervisées par des universités et des centres de recherche spécialisés, comme celles utilisées dans les études cliniques ou les projets de recherche avancée.

Quant aux premières, c’est-à-dire les généralistes, il semble que les gens les trouvent utiles pour gérer les moments d’anxiété, de stress ou de simples doutes, mais le manque de supervision clinique peut amener ces IA à donner des conseils inappropriés, voire nuisibles, à poser des diagnostics erronés ou à renforcer des comportements dysfonctionnels, par exemple en faisant plaisir à l’utilisateur au lieu de remettre en question ses pensées.

Cela se produit parce que de telles IA génèrent des réponses basées sur des modèles statistiques et des modèles linguistiques, sans véritable compréhension sémantique ou empathique ; ils n’ont pas, par exemple, la capacité de remettre en question les croyances dysfonctionnelles. En thérapie, au contraire, le chemin ne vise pas à confirmer ce que l’on croit, mais à remettre en question et à retravailler ses pensées et ses comportements pour favoriser des changements positifs dans la relation à soi et aux autres.

Pour cette raison, s’appuyer sur des chatbots génériques sans accompagnement professionnel peut se transformer en piège, notamment dans des situations de fragilité émotionnelle ou de risque.

Un risque supplémentaire est en effet que certaines personnes, déjà réticentes à accepter le processus thérapeutique du questionnement, durcissent davantage leurs pensées et leurs attitudes.

En fait, l’interaction avec les chatbots peut créer une sorte de « chambre d’écho » dans laquelle les croyances dysfonctionnelles sont renforcées. Dans ces cas, l’utilisateur trouve une affirmation continue de ses idées, ce qui peut aggraver l’inconfort psychologique au lieu de le soulager. Le recours à l’IA non supervisée peut donc consolider la résistance au changement et empêcher le démarrage d’un véritable parcours thérapeutique, qui devrait viser la croissance et la transformation.

D’un autre côté, disions-nous, il existe des IA développées et supervisées par des universités et des centres de recherche spécialisés, comme celles utilisées dans les études cliniques ou les projets de recherche avancée.

Ce sont des IA moins connues et probablement moins utilisées, mais elles ont été spécifiquement conçues avec des protocoles cliniques rigoureux et souvent validées par des études scientifiques et sous la supervision de professionnels de la santé mentale. Par exemple, certains systèmes utilisent des algorithmes d’apprentissage automatique et d’analyse du langage naturel développés dans le monde universitaire pour aider au diagnostic précoce ou à la personnalisation des thérapies, mais toujours dans un contexte contrôlé et supervisé.

Pour cette raison, ils sont en mesure d’offrir un soutien plus sûr et plus personnalisé pour le diagnostic et le traitement.

Autres risques de l’IA

Outre les risques liés aux chatbots génériques, il faut savoir que même l’IA développée dans un domaine spécialisé n’est pas encore capable de gérer efficacement les situations de crise aiguë comme les idées suicidaires ou les épisodes psychotiques, qui nécessitent une intervention humaine immédiate et qualifiée.

L’utilisation intense et isolée de l’IA peut également conduire à des distorsions de la perception de la réalité (« psychose de l’IA »), avec de possibles effets négatifs, notamment chez les personnes vulnérables.

À cela s’ajoutent des inquiétudes quant à la confidentialité des données collectées, souvent insuffisamment protégées, et le risque qu’un usage excessif de l’intelligence artificielle en santé mentale puisse dépersonnaliser et automatiser à outrance la relation thérapeutique, appauvrissant la dimension humaine et relationnelle irremplaçable de la prise en charge psychologique.

Pour ces raisons, l’IA doit être considérée comme un outil d’accompagnement du professionnel, et non comme un substitut au parcours thérapeutique humain.

Les avantages indéniables de l’IA

Toutefois, si nous nous contentons d’examiner les risques, nous n’examinons pas honnêtement la situation dans son ensemble ; aujourd’hui, en effet, nous savons que :

  • les algorithmes peuvent intercepter les premiers signaux de détresse psychologique à partir d’une analyse du langage, des expressions émotionnelles ou du comportement en ligne ;
  • Les applications basées sur l’IA montrent des réductions significatives des symptômes de dépression (environ 51 %) et d’anxiété (31 %), avec une bonne perception de l’alliance thérapeutique ;
  • dans les zones où il y a un manque de psychologues, la technologie peut garantir un soutien minimal et accessible ;
  • l’IA dite émotionnelle permet de lire les états émotionnels et de proposer des exercices ciblés.

Pour conclure donc, en acquérant une position critique et modérée, nous pouvons dire que l’intelligence artificielle en santé mentale n’est ni un ennemi à combattre, ni une baguette magique qui résout tout.

Il s’agit d’un outil diversifié, capable d’ouvrir de réelles possibilités de prévention, d’accompagnement et de traitement. Mais pour ne pas être dangereux, il faut investir dans la recherche, identifier des règles sûres et des espaces d’action et surtout reconnaître que pour l’instant la présence humaine est encore irremplaçable.

Peut-être que dans un certain temps nous trouverons la voie, d’ici là, la meilleure chose est l’hybride personne-machine : une collaboration dans laquelle l’IA élargit les possibilités de traitement, mais le cœur reste celui de la rencontre humaine.