
Image generated by ChatGPT
Opinion : Les chatbots sont-ils de bons thérapeutes ?
Des chatbots IA tels que ChatGPT, Claude et DeepSeek transforment la façon dont les gens accèdent au soutien émotionnel, offrant une aide à faible coût et à la demande pour l’anxiété, le stress et l’auto-réflexion. Cependant, l’utilisation croissante de l’IA en tant que « thérapeute » soulève des questions sur la sécurité, l’efficacité et l’avenir des soins émotionnels
L’augmentation des hallucinations de l’IA et les préoccupations croissantes en matière de cybersécurité n’ont pas empêché les chatbots de se développer et de gagner la confiance de millions d’utilisateurs dans le monde. Les gens utilisent maintenant quotidiennement des chatbots fiables et intelligents pour d’innombrables tâches, y compris le soutien émotionnel et la gestion de problèmes profondément humains.
« Je ne peux plus imaginer ma vie sans ChatGPT, » a déclaré un ami à moi, à moitié en plaisantant, à moitié sérieusement, après m’avoir dit qu’il l’utilisait aussi en tant que thérapeute. Il n’est pas le seul. De plus en plus, je vois des vidéos TikTok et des publications de textes sur les réseaux sociaux de personnes qui se tournent vers l’IA pour discuter de problèmes personnels, partageant même leurs secrets les plus intimes.
ChatGPT est en fait mon thérapeute intégré, je ne charge plus personne avec mes problèmes
— Lola🧚🏾 (@Lolaassnw) 18 décembre 2024
Même un cadre de Microsoft de la division Xbox a suggéré que les employés licenciés utilisent des outils d’IA pour gérer leurs émotions et chercher des conseils sur leur recherche d’emploi – une recommandation qui a rapidement fait l’objet de critiques et a suscité le débat, bien sûr. Pas le meilleur coup, Matt.
Mais les chatbots populaires comme Claude, ChatGPT ou Mistral sont-ils de bons thérapeutes ? Les outils d’IA dédiés tels que Wysa sont-ils meilleurs ? C’est un terrain délicat. Alors que de nombreux experts mettent en garde contre les dangers de l’utilisation de l’IA pour le soutien à la santé mentale, d’autres sont intrigués – voire impressionnés – par ce que la technologie peut offrir. Le résultat est une conversation à la fois abstraite et polarisante.
L’IA est maintenant le thérapeute de tout le monde
Tout comme mes amis en Espagne, des millions d’utilisateurs à travers le monde comptent sur les chatbots pour un soutien émotionnel. Une récente enquête aux États-Unis a révélé que 49% des utilisateurs américains ont cherché de l’aide pour leur santé mentale auprès de modèles d’IA l’année dernière. Et maintenant, avec ChatGPT qui a presque doublé sa base d’utilisateurs en seulement quatre mois ?
Anthropic, la société à l’origine du puissant modèle d’IA Claude, a récemment partagé une étude sur l’utilisation de son chatbot pour un soutien émotionnel. Selon la startup, moins de 3% de ses clients s’engagent dans des conversations « affectives », mais la société reconnaît que ce nombre est en constante augmentation.
Nouvelle recherche anthropique : Comment les gens utilisent Claude pour un soutien émotionnel.
À partir de millions de conversations anonymisées, nous avons étudié comment les adultes utilisent l’IA pour leurs besoins émotionnels et personnels – allant de la gestion de la solitude et des relations à la formulation de questions existentielles. pic.twitter.com/v40JY8rAUq
— Anthropic (@AnthropicAI) 26 juin 2025
« De plus en plus, les gens se tournent vers les modèles d’IA en tant que coachs à la demande, conseillers, thérapeutes, et même partenaires dans des jeux de rôles romantiques », a écrit Anthropic dans l’étude. « Cela signifie que nous devons en savoir plus sur leurs impacts affectifs – comment ils façonnent les expériences émotionnelles et le bien-être des gens. »
L’étude met également en lumière les résultats positifs et négatifs de l’utilisation de la technologie pour un soutien émotionnel, y compris des scénarios catastrophiques qui reflètent déjà des situations réelles du monde.
« Les impacts émotionnels de l’IA peuvent être positifs : avoir un assistant hautement intelligent et compréhensif dans votre poche peut améliorer votre humeur et votre vie de toutes sortes de manières, » déclare le document. « Mais dans certains cas, les IA ont montré des comportements troublants, comme encourager un attachement malsain, violer les limites personnelles et favoriser la pensée délusionnelle. »
Il est clairement nécessaire de mener davantage de recherches et de recueillir plus de données pour comprendre les conséquences de ces « auditeurs » numériques fascinants, mais des millions d’utilisateurs agissent déjà en tant que sujets de test très impliqués.
Démocratisation de la santé mentale
Il existe de nombreuses raisons pour lesquelles les gens se tournent vers les chatbots pour obtenir un soutien émotionnel, plutôt que de faire appel à un psychologue professionnel – ou même à un ami. Des barrières culturelles à l’inconfort que ressentent les jeunes lorsqu’ils sont assis en face d’un étranger et partagent leurs pensées les plus intimes. Mais, sans aucun doute, l’une des plus grandes raisons est financière.
Une séance en personne avec un thérapeute agréé aux États-Unis peut coûter de 100 à 200 dollars par séance, selon Healthline – et de 65 à 95 dollars pour une séance en ligne – tandis que ChatGPT ou DeekSeek peuvent fournir un soutien gratuitement, à tout moment, et en quelques secondes.
Le faible coût de ces conversations informelles – qui peuvent faire sentir beaucoup d’utilisateurs mieux, au moins temporairement – peut être très encourageant et vaut la peine d’être tenté. Et, pour quelques dollars de plus, les utilisateurs peuvent obtenir des interactions illimitées ou accéder à un chatbot spécialisé comme Wysa – l’un des « thérapeutes IA » les plus populaires sur le marché.
Dans le monde des STEM, la force émotionnelle compte autant que les compétences techniques.
Wysa – un compagnon de bien-être mental alimenté par l’IA conçu pour vous soutenir à travers le burnout, le stress et les défis quotidiens.
En utilisant des chatbots amicaux et des exercices guidés, Wysa offre des outils comme: pic.twitter.com/sOBhNYWUd7
— DSN Ladies In AI (@dsnladies_in_ai) 10 juillet 2025
Wysa prétend offrir de véritables avantages cliniques et a même obtenu une désignation de dispositif innovant de la FDA pour ses agents conversationnels basés sur l’IA. Et Woebot—un autre thérapeute en IA bien connu, qui est maintenant en train de fermer en raison des défis à rester compétitif et conforme dans l’industrie—a également partagé des données et des rapports sur la façon dont la technologie peut réellement aider les utilisateurs.
Ce n’est pas si mal
Des études récentes avec des données fraîches suggèrent que les chatbots peuvent réduire les symptômes de la dépression et du stress. Selon les données partagées par l’application Earkick—tel que rapporté par TIME—les personnes qui utilisent les modèles d’IA pendant jusqu’à 5 mois peuvent réduire leur anxiété de 32%, et 34% des utilisateurs signalent une amélioration de leur humeur.
Dans une récente vidéo partagée par BBC World Service, le journaliste Jordan Dunbar explique que de nombreux modèles d’IA peuvent en réalité être utiles pour tenir un journal, gérer l’anxiété, l’auto-réflexion, et même une légère dépression. Ils peuvent servir de précieuse première ligne de soutien lorsqu’il n’y a pas accès à de meilleures alternatives.
La journaliste Kelly Ng a également partagé des informations convaincantes : dans une étude de 2022, sur un million de personnes en Chine, seules 20 avaient accès aux services de santé mentale. Dans les cultures asiatiques, la santé mentale peut être un sujet complexe et souvent tabou. Des outils d’IA comme DeepSeek peuvent servir d’alliés discrets, aidant les utilisateurs à gérer leurs émotions et à trouver du soutien pendant les moments difficiles.
Les experts mettent en garde contre l’utilisation des chatbots en tant que thérapeutes
Bien sûr, utiliser l’IA comme substitut à un expert en santé mentale peut aussi être extrêmement dangereux. Des plateformes d’IA telles que Character.AI ont été accusées de promouvoir l’automutilation et la violence—et même d’exposer les enfants à du contenu sexuel.
Des cas tragiques, comme celui de l’enfant de 14 ans qui s’est suicidé après être devenu accro aux interactions avec son chatbot Character.AI, servent d’avertissements sévères sur les risques profonds que cette technologie peut présenter pour les humains.
En réponse, de nombreuses entreprises d’IA ont décidé de mettre en place des systèmes de vérification de l’âge pour restreindre l’utilisation aux adultes et ont introduit de nouvelles mesures de sécurité pour améliorer les services fournis.
Pourtant, même les mises à jour les plus récentes des chatbots les plus avancés comportent des risques.
La personnalité flagorneuse — excessivement flatteuse — de ChatGPT a suscité des inquiétudes parmi les professionnels de la santé mentale car elle peut déformer la perception de la réalité des utilisateurs. Nous apprécions tous être d’accord, mais parfois l’honnêteté et une perspective différente sont bien plus précieuses.
Les conseils troublants occasionnellement donnés par le chatbot IA d’OpenAI ont contribué à un nouveau phénomène maintenant connu parmi les experts en santé mentale sous le nom de « Psychose Induite par ChatGPT« , qui conduit les utilisateurs à devenir obsédés par l’outil et à s’isoler socialement en conséquence.
Alors, les thérapeutes peuvent-ils être remplacés par des chatbots ?
Même si Mark Zuckerberg veut que tout le monde utilise les chatbots IA comme thérapeutes et amis, la vérité est que l’interaction humaine, surtout en matière de santé mentale, pourrait être plus nécessaire qu’il ne le pense – du moins pour l’instant.
Nous sommes à un moment crucial de l’histoire de l’IA et de sa relation avec notre santé mentale. Tout comme avec les humains, les thérapeutes IA peuvent avoir un impact positif ou négatif. Dans ce cas, cela dépend aussi du contexte, de la fréquence d’utilisation, de l’état mental de l’utilisateur et même de la façon dont une invite est rédigée.
Il est compliqué d’établir une règle générale, mais ce que nous pouvons dire pour l’instant, c’est qu’il y a certaines fonctions pour lesquelles l’IA pourrait être plus utile que d’autres.
Même s’ils ne sont pas des outils spécialisés comme Wysa, les versions gratuites de certains chatbots – comme DeepSeek ou ChatGPT – peuvent toujours être incroyablement utiles à des millions de personnes à travers le monde. Qu’il s’agisse de traverser un moment difficile ou de réfléchir à des objectifs personnels, ce sont des plateformes puissantes qui peuvent répondre à tout moment de la journée et puiser dans une vaste base de connaissances sur la santé mentale.
En même temps, il est clair que les chatbots thérapeutes peuvent également être extrêmement dangereux dans certains cas. Les parents doivent superviser les enfants et les adolescents, et même les adultes peuvent tomber dans des comportements obsessionnels ou aggraver leurs conditions. Des principes de base – comme encourager la connexion humaine et protéger les individus vulnérables d’être manipulés par cette technologie – doivent faire partie de notre conversation autour des chatbots thérapeutes.
Et même si cela peut encore être un privilège – non accessible à tous ceux qui ont besoin de soutien émotionnel – un thérapeute professionnel humain continue de suivre davantage de formations, de comprendre davantage de contextes et d’offrir une connexion humaine que ChatGPT pourrait ne jamais être capable de reproduire.