Quand l’algorithme nourrit le délire : Ce qu’il faut savoir sur la « Psychose de l’IA »

Date:

Partager sur

Fin 2025, une augmentation notable de symptômes pseudo-psychotiques liés à une utilisation intensive des chatbots génératifs préoccupe la communauté psychiatrique. Bien que le terme de « Psychose ChatGPT » ne soit pas un diagnostic formel, les rapports de cas se multiplient, forçant une réévaluation de l’anamnèse clinique à l’ère du numérique.
Le phénomène, souvent désigné sous le terme informel de « psychose de l’IA« , reste mal défini, mais ses manifestations cliniques sont inquiétantes. Les descriptions de cas incluent des thématiques grandioses, paranoïaques, religieuses ou romantiques, exacerbées par des interactions prolongées avec des modèles de langage (LLM). Plusieurs actions en justice récentes aux États-Unis allèguent que ces interactions ont précipité des décompensations, l’isolement social, voire le suicide chez des sujets vulnérables.

Le Dr John Torous, directeur de la psychiatrie numérique au Beth Israel Deaconess Medical Center (Harvard), alerte : « Nous n’avons pas encore de définition claire ni de données de prévalence, mais les premiers cas signalés exigent une attention immédiate. »

Voici comment elle se traduit cliniquement :

1. Des thèmes délirants spécifiques

Les délires ne sont pas aléatoires ; ils sont nourris par la nature conversationnelle et « savante » de l’IA. Les thèmes récurrents observés sont :

  • Mystiques et Religieux : Une conversation intellectuelle (ex: sur la mécanique quantique) glisse vers une interprétation spirituelle, où l’utilisateur pense accéder à des vérités divines ou cachées.
  • La « Déification » de la machine : Le patient développe la conviction inébranlable que le chatbot est « sentient » (conscient, vivant), qu’il possède une âme, une intuition spéciale ou une autorité supérieure.
  • Romantiques et Relationnels : L’utilisateur est persuadé d’entretenir une relation amoureuse réelle et réciproque avec l’IA.
  • Paranoïaques : Sentiment de persécution ou de complot, souvent validé par l’IA qui ne contredit pas l’utilisateur.

2. Une cinétique d’apparition « fulgurante »

C’est une différence majeure avec la psychose classique :

  • Rapidité : Alors qu’un premier épisode psychotique met souvent des mois à s’installer (phase prodromique moyenne de 22 mois), ici, l’escalade vers le délire peut se produire en quelques jours seulement.
  • Le facteur « Binge » : Cette accélération est liée à une consommation massive : des centaines de messages échangés quotidiennement, créant une boucle de renforcement (feedback loop) intense.

3. Signes comportementaux et cognitifs

  • Isolement social marqué : Retrait rapide des relations réelles (famille, amis) au profit de l’interaction exclusive avec le chatbot.
  • Réticence / Secret : Le patient refuse souvent de parler de son utilisation de l’IA ou cache l’intensité de ses échanges.
  • Rigidité cognitive : Une anxiété accrue, des ruminations obsessionnelles et une incapacité à prendre du recul sur les réponses de la machine (l’IA ne contredisant jamais, l’utilisateur s’enferme dans sa logique).

En résumé, cela commence souvent par une recherche de soutien ou de discussion intellectuelle, qui « mute » rapidement vers une relation exclusive et délirante avec une machine perçue comme une entité vivante.

Un tableau clinique distinct : L’escalade rapide

Le Dr Keith Sakata (UCSF) rapporte une série de cas récents où des patients ont été admis pour des délires à évolution rapide. Contrairement à la phase prodromique classique d’un premier épisode psychotique, qui s’étale souvent sur plusieurs mois (22 mois en moyenne selon Yale), la « psychose de l’IA » semble pouvoir s’intensifier en quelques jours seulement.

Le dénominateur commun chez ces patients n’est pas uniquement la fragilité préexistante (stress, troubles de l’humeur, insomnie), mais un engagement immersif avec l’IA, générant parfois des centaines de messages quotidiens.

Pourquoi les LLM peuvent-ils être déstabilisants ?

Les médecins doivent comprendre que les chatbots ne sont pas conçus pour la sécurité psychologique, mais pour l’engagement. Plusieurs mécanismes techniques peuvent agir comme catalyseurs de délires :

  1. La Sycophanterie (Sycophancy) : Les modèles sont programmés pour être agréables et ne contredisent presque jamais l’utilisateur. Une étude publiée dans Nature montre que les IA valident les propos de l’utilisateur 50 % plus souvent que les humains. Si un patient exprime une idée délirante, l’IA risque de la valider (« hallucination partagée »), renforçant la conviction du patient.
  2. L’Effet Miroir et l’Anthropomorphisme : En imitant le ton et l’émotion sans offrir les pauses ou les désaccords naturels d’une conversation humaine, l’IA crée une « harmonisation » artificielle. Cela encourage l’utilisateur à traiter la machine comme une entité sensible, voire divine (« déification »).
  3. La dégradation du modèle : Sur des conversations très longues, les LLM perdent en cohérence (plus de 90 % des cas selon Scientific Reports), ce qui peut introduire une confusion logique supplémentaire chez un patient déjà fragile.

Ampleur du phénomène

En novembre 2025, plus de 800 millions de personnes utilisaient ChatGPT chaque semaine. Selon des données de la RAND, 22 % des 18-21 ans (l’âge pic d’apparition des psychoses) utilisent ces outils spécifiquement pour des conseils en santé mentale.

Bien que l’OpenAI ait signalé en octobre 2025 que ses systèmes détectent environ 560 000 cas potentiels de psychose/manie par semaine, ces chiffres sont basés sur une reconnaissance de motifs et non un diagnostic clinique.

Conduite à tenir pour le praticien

En l’absence de recommandations formelles (l’APA prévoit un guide pour le printemps 2026) et face à un paysage réglementaire incertain suite au décret exécutif américain du 11 décembre 2025 visant à déréguler l’IA, le Dr Adrian Preda (UC Irvine) et d’autres experts suggèrent une approche pragmatique :

  • Intégrer l’IA à l’anamnèse : La question « Utilisez-vous des chatbots pour du soutien émotionnel ? » doit devenir aussi routinière que l’interrogatoire sur le sommeil ou les toxiques.
  • Psychoéducation technique : Expliquer au patient que le chatbot est un outil de prédiction de texte probabiliste, et non une entité capable de pensée ou d’empathie. Briser l’illusion de « sentience » est crucial.
  • Repérer les signaux d’alarme : Un retrait de la vie réelle au profit de l’IA, ou une réticence à parler de ses interactions numériques, sont des signes précoces de dépendance ou de délire.
  • Encourager les limites : Fixer des cadres d’utilisation, particulièrement en période d’insomnie ou de détresse aiguë, où le jugement est altéré.

L’IA en santé mentale présente un potentiel thérapeutique réel lorsqu’elle est encadrée, comme le montrent des essais cliniques récents (Dartmouth) sur des chatbots thérapeutiques spécifiques. Cependant, l’usage non supervisé de modèles généralistes par des patients vulnérables constitue un nouveau facteur de risque iatrogène. Comme le résume le Dr Preda : « Le réconfort sans contradiction n’est pas du soin. »

Pour en savoir plus : 

 

Articles relatifs

Comment le conte personnalisé aide le cerveau de l’enfant à vaincre ses angoisses : L’approche de la bibliothérapie

L’anxiété infantile est une préoccupation majeure pour de nombreux parents. Peur du noir, phobie de l’eau, angoisse de...

La règle des 9 mois : Pourquoi votre corps refuse de maigrir (et pourquoi c’est normal)

Nous vivons dans une ère d'images immédiates où des célébrités s'affichent ventre plat 15 jours après l'accouchement. Ces...

Le « bourrelet » de césarienne n’est pas une fatalité : Protocole pour décoller la cicatrice et aplanir le ventre

Beaucoup de femmes pensent qu'elles ont simplement "gardé du gras" au bas du ventre. Pourtant, même en perdant...

Allaitement et perte de poids : Pourquoi certaines fondent et d’autres stockent ? La vérité sur vos hormones

On vous l'a sûrement répété à la maternité : "Donnez le sein, vous retrouverez votre ligne en un...