Image by Freepik
La psychiatre de San Francisco met en garde contre l’augmentation des cas de « Psychose IA »
Une psychiatre de San Francisco décrit la tendance croissante de la « psychose de l’IA » chez ses patients qui utilisent intensivement les chatbots AI.
Pressée ? Voici les faits en bref :
- Un psychiatre a traité 12 patients atteints de « psychose IA » à San Francisco cette année.
 - L’IA peut intensifier les vulnérabilités comme le stress, l’usage de drogues ou la maladie mentale.
 - Certains patients sont devenus isolés, parlant uniquement avec des chatbots pendant des heures chaque jour.
 
Le Dr. Keith Sakata, qui travaille à l’UCSF, a déclaré à Business Insider (BI) que 12 patients ont été hospitalisés cette année après avoir connu des crises liées à l’utilisation de l’IA. « J’utilise l’expression ‘psychose IA‘, mais ce n’est pas un terme clinique – nous n’avons vraiment pas les mots pour décrire ce que nous observons, » a-t-il expliqué.
La plupart des cas concernaient des hommes âgés de 18 à 45 ans, souvent travaillant dans des domaines comme l’ingénierie. Selon Sakata, l’IA n’est pas intrinsèquement nuisible. « Je ne pense pas que l’IA soit mauvaise, et elle pourrait avoir un bénéfice net pour l’humanité », a-t-il déclaré à BI.
Sakata a décrit la psychose comme une condition qui produit des illusions, des hallucinations et des schémas de pensée désorganisés. Les patients sous sa charge ont développé des comportements de retrait social tout en consacrant leur temps à discuter avec des chatbots pendant des heures.
« Chat GPT est là, à votre disposition. Il est disponible 24/7, moins cher qu’un thérapeute, et il vous valide. Il vous dit ce que vous voulez entendre », a déclaré Sakata à BI.
Les discussions d’un patient avec le chatbot à propos de la mécanique quantique ont dégénéré en délires de grandeur. « D’un point de vue technologique, plus vous interagissez longtemps avec le chatbot, plus il y a de risques qu’il commence à ne plus avoir de sens », a-t-il averti.
Sakata conseille aux familles de surveiller les signaux d’alarme, notamment la paranoïa, l’isolement des proches ou l’angoisse lorsqu’elles ne peuvent pas utiliser l’IA. « La psychose prospère lorsque la réalité cesse de résister, et l’IA abaisse simplement cette barrière pour les gens », a-t-il averti.
L’Association Américaine de Psychologie (APA) a également exprimé des préoccupations concernant l’IA en thérapie. Dans son témoignage devant la FTC, le PDG de l’APA, Arthur C. Evans Jr. a averti que les chatbots d’IA se faisant passer pour des thérapeutes ont renforcé les pensées nuisibles au lieu de les contester. « Ils utilisent en fait des algorithmes qui sont contraires à ce qu’un clinicien formé ferait », a déclaré Evans.
En réponse aux préoccupations, OpenAI a déclaré à BI : « Nous savons que les gens se tournent de plus en plus vers les chatbots IA pour obtenir des conseils sur des sujets sensibles ou personnels. Avec cette responsabilité à l’esprit, nous travaillons avec des experts pour développer des outils permettant de détecter plus efficacement quand quelqu’un éprouve une détresse mentale ou émotionnelle afin que ChatGPT puisse répondre de manière sûre, utile et soutenante. »