ChatGPT en santé mentale : un outil utile… mais pas un remplacement du suivi professionnel
Depuis quelque temps, une réalité s’impose tranquillement dans le quotidien clinique : de plus en plus de personnes arrivent en rencontre en mentionnant qu’elles ont déjà “parlé” à ChatGPT. Certaines l’utilisent pour comprendre leurs émotions, d’autres pour valider leurs impressions, ou simplement pour mettre des mots sur ce qu’elles vivent. L’utilisation de ChatGPT en santé mentale est de plus en plus fréquente chez les personnes qui cherchent à mieux comprendre ce qu’elles vivent.
Dans un contexte où les besoins en santé mentale sont bien présents, plusieurs amorcent une réflexion personnelle de cette manière, alors que d’autres choisissent d’aller plus loin avec un suivi en santé mentale.
Ce phénomène n’est ni surprenant, ni inquiétant en soi. Il dit quelque chose d’important sur les besoins actuels. Mais il soulève aussi une question essentielle : jusqu’où cet outil peut-il réellement aider ?
Pourquoi les gens utilisent ChatGPT en santé mentale
Il faut d’abord reconnaître une chose simple : ChatGPT répond à des besoins très réels.
Dans un contexte où l’accès aux services peut parfois être limité, il devient une option immédiate. En quelques secondes, une personne peut poser une question, obtenir une réponse structurée, et parfois ressentir un certain apaisement.
Plusieurs études récentes montrent d’ailleurs que les utilisateurs se tournent vers les intelligences artificielles pour obtenir du soutien émotionnel, notamment en raison de leur accessibilité et de l’absence de jugement perçu (Rousmaniere et al., 2025).
Il y a aussi ce besoin de comprendre. Mettre des mots, donner un sens, valider certaines impressions. Une analyse qualitative des usages de ChatGPT en santé mentale souligne que plusieurs personnes le perçoivent comme un “espace pour réfléchir” plutôt que comme un outil d’intervention (Luo et al., 2025).
Dans des milieux urbains comme Montréal ou la Rive-Sud, où le rythme est rapide, ce besoin d’un accès immédiat à des réponses est particulièrement présent.
Ce que ChatGPT peut réellement apporter
Utilisé de façon adéquate, ChatGPT peut avoir une fonction utile.
Il peut aider à structurer la pensée, à clarifier certaines émotions, ou à reformuler une situation vécue. Cette mise en mots est parfois un premier pas important dans une démarche personnelle.
Certaines études montrent également que les réponses générées par des intelligences artificielles peuvent être perçues comme aidantes à court terme, notamment pour mieux comprendre des concepts liés à l’anxiété ou à la dépression (Heinz et al., 2025).
Pour une personne déjà engagée dans un suivi, cela peut devenir un outil complémentaire. Par exemple, dans un cadre d’accompagnement en santé mentale, certaines personnes utilisent ChatGPT entre les rencontres pour structurer leurs réflexions.
Mais il est important de rester lucide : ce que ChatGPT offre, c’est un espace de réflexion. Pas un espace d’intervention.
Une limite majeure : l’absence d’évaluation clinique
En santé mentale, toute démarche sérieuse repose sur une compréhension globale de la personne.
Sans évaluation, il devient difficile de bien cerner ce qui se joue réellement. L’histoire personnelle, le contexte de vie, les mécanismes d’adaptation… tout cela influence la situation.
Les recherches actuelles soulignent clairement cette limite. Même si les IA peuvent générer des réponses pertinentes, elles ne disposent pas d’une compréhension contextuelle suffisante pour remplacer une évaluation clinique approfondie (Zhang et al., 2024).
ChatGPT n’a accès qu’à ce que la personne lui partage, souvent de manière partielle ou biaisée. Il ne peut ni observer, ni ajuster son analyse en fonction d’éléments implicites.
C’est précisément là qu’un professionnel formé prend toute son importance. Une rencontre avec un membre de notre équipe en santé mentale permet d’aller au-delà des apparences et de comprendre la situation dans toute sa complexité.
Comprendre ne veut pas dire intervenir
Il y a une confusion fréquente lorsqu’on parle de santé mentale : celle de croire que comprendre une situation équivaut déjà à la transformer.
Sur le plan intellectuel, il est souvent possible d’identifier certains mécanismes. Une personne peut reconnaître qu’elle évite certaines situations, qu’elle rumine, ou qu’elle a tendance à s’auto-critiquer. ChatGPT peut d’ailleurs aider à nommer ces phénomènes et à en expliquer les grandes lignes.
Mais dans la réalité clinique, comprendre ne suffit presque jamais.
Le changement implique autre chose : une mise en mouvement, souvent inconfortable, parfois confrontante. Il nécessite d’aller au-delà de la réflexion pour entrer dans l’expérimentation. Modifier des habitudes, tester de nouvelles façons de réagir, tolérer une certaine incertitude… tout cela ne se fait pas uniquement à travers des réponses écrites.
Certaines recherches montrent d’ailleurs que, même si les intelligences artificielles peuvent améliorer la compréhension des difficultés psychologiques, leur impact sur les changements comportementaux demeure limité sans accompagnement humain (Heinz et al., 2025).
Ce qui est souvent observé, c’est un écart entre ce que la personne sait… et ce qu’elle est capable de faire concrètement dans son quotidien.
C’est là qu’un accompagnement professionnel prend tout son sens.
Dans un suivi, le professionnel ne se contente pas d’expliquer. Il aide à faire des liens, à identifier les moments clés, à intervenir au bon rythme. Il peut soutenir une personne lorsqu’elle tente quelque chose de nouveau, ou l’aider à comprendre pourquoi certains changements restent difficiles malgré une bonne compréhension intellectuelle.
Ce type de travail se construit dans le temps, notamment dans le cadre d’un suivi en santé mentale, où les interventions peuvent être ajustées en fonction de l’évolution réelle de la personne.
Il peut aussi repérer des angles morts. Des éléments que la personne ne voit pas, ou qu’elle interprète d’une manière qui maintient la difficulté.
Ce travail d’ajustement, de nuance et de mise en action ne peut pas être reproduit par un outil qui fonctionne uniquement à partir de ce qui lui est écrit.
Comprendre est une étape importante. Mais en santé mentale, c’est rarement celle qui fait la plus grande différence.
Une relation clinique ne peut pas être remplacée
Ce qui distingue profondément un suivi professionnel d’un échange avec une intelligence artificielle, c’est la relation.
Et cette dimension est souvent sous-estimée.
En santé mentale, la relation n’est pas simplement un contexte dans lequel on parle. Elle fait partie intégrante du processus de changement. C’est à travers elle que certaines prises de conscience deviennent possibles, que des ajustements se font, et que la personne peut expérimenter une autre manière d’être en lien.
Dans un espace clinique, il y a une présence réelle. Une personne en face de soi, qui observe, qui ressent, qui ajuste son intervention en fonction de ce qui se passe, parfois au-delà des mots.
Le non-verbal, les silences, les hésitations… tout cela fait partie de l’intervention.
Un professionnel peut percevoir qu’une personne évite un sujet, qu’elle minimise une émotion, ou qu’elle intellectualise une situation pour ne pas y être trop confrontée. Il peut alors intervenir avec finesse, en respectant le rythme de la personne, mais sans laisser certains éléments importants de côté.
Cette capacité d’ajustement repose à la fois sur des connaissances, mais aussi sur une sensibilité clinique et une responsabilité professionnelle. Contrairement à une IA, le professionnel est imputable de ses interventions et s’inscrit dans un cadre éthique structuré.
Les travaux récents en santé mentale numérique rappellent d’ailleurs que, malgré les avancées technologiques, la relation thérapeutique demeure un facteur central dans l’efficacité des interventions (Stanford HAI, 2025).
La relation permet aussi de créer un espace sécurisant. Un espace où la personne peut se permettre d’explorer des zones plus vulnérables, avec la certitude d’être accueillie sans jugement, mais aussi soutenue activement.
C’est précisément ce que permet une rencontre avec un professionnel, comme ceux que vous pouvez retrouver au sein de notre équipe en santé mentale.
Avec une intelligence artificielle, il peut y avoir une impression d’échange. Les réponses peuvent être cohérentes, parfois même réconfortantes. Mais il n’y a pas de lien. Pas de continuité réelle. Pas de mémoire relationnelle au sens clinique.
Chaque interaction est isolée.
Or, c’est souvent dans la continuité — d’une rencontre à l’autre — que les choses évoluent réellement.
C’est cette dimension relationnelle qui permet d’aller en profondeur. Et c’est précisément ce qui ne peut pas être reproduit par une intelligence artificielle.
Les risques : rester en surface ou retarder une démarche
L’utilisation de ChatGPT n’est pas problématique en soi. Mais certains usages peuvent devenir limitants.
Une personne peut rester dans une compréhension intellectuelle sans passer à l’action. Lire, analyser, réfléchir… sans réellement s’engager dans un processus de changement.
Dans certains cas, les réponses peuvent même renforcer certaines perceptions sans les remettre en question, ce qui peut ralentir l’évolution.
Des organismes comme l’Association canadienne pour la santé mentale rappellent que les outils numériques peuvent comporter des risques, notamment pour les personnes plus vulnérables, s’ils sont utilisés sans encadrement professionnel (CMHA, 2025).
Lorsqu’un inconfort persiste, il devient pertinent d’en parler avec quelqu’un. Dans ces situations, consulter dans un cadre professionnel, comme à notre clinique de Longueuil ou celle de Montréal, peut permettre de sortir de cette impasse.
Quelle place pour ChatGPT dans un parcours en santé mentale ?
La question n’est pas de savoir si ChatGPT est “bon” ou “mauvais” pour la santé mentale. La réalité est plus nuancée.
Comme plusieurs outils, tout dépend de la façon dont il est utilisé.
Dans certains cas, il peut représenter une porte d’entrée. Une première étape pour une personne qui n’est pas encore prête à consulter. Il peut aider à mettre des mots, à structurer certaines pensées, ou à amorcer une réflexion.
Les études qualitatives sur l’utilisation de ChatGPT montrent d’ailleurs que plusieurs utilisateurs le perçoivent comme un espace accessible et non jugeant, mais reconnaissent aussi ses limites lorsqu’il s’agit d’aller en profondeur (Luo et al., 2025).
Pour d’autres, déjà engagées dans un suivi, il peut servir de support ponctuel. Un espace pour organiser ses idées entre les rencontres.
Mais il y a une ligne importante à ne pas franchir : celle où l’outil devient un substitut au suivi.
Lorsqu’une personne commence à utiliser ChatGPT comme principal espace de soutien, certaines limites apparaissent rapidement. Le travail reste souvent au niveau de la réflexion. Les mêmes questions peuvent revenir, sans qu’un réel mouvement ne s’opère.
Il peut aussi y avoir une illusion de progression. L’impression d’avancer parce que l’on comprend mieux… alors que peu de choses changent concrètement.
Dans d’autres situations, l’utilisation de l’outil peut devenir une forme d’évitement. Éviter de consulter, éviter d’être confronté à certaines réalités.
Les organismes en santé mentale soulignent d’ailleurs que les outils numériques, bien qu’utiles, ne remplacent pas un encadrement professionnel, notamment pour les situations plus complexes (CMHA, 2025).
C’est pourquoi il est plus juste de positionner ChatGPT comme un outil complémentaire, et non comme une alternative.
Dans un parcours en santé mentale, il peut avoir une utilité. Mais cette utilité reste limitée si elle n’est pas intégrée dans une démarche plus globale.
À un certain moment, lorsque les difficultés persistent, il devient pertinent d’aller vers un espace où l’on peut être accompagné de manière plus ajustée.
Un espace où il y a une évaluation, une relation, et une intervention adaptée, que ce soit en ligne ou en présentiel, notamment dans un cadre clinique comme celui offert à Longueuil ou à Montréal.
Et c’est généralement à partir de là que les choses commencent réellement à évoluer.
Une réflexion clinique pour conclure
Ce que l’essor de ChatGPT nous montre, c’est que les gens cherchent activement à comprendre ce qu’ils vivent.
Et c’est une excellente chose.
Mais comprendre ne suffit pas toujours. À un certain moment, il devient nécessaire d’aller plus loin, d’être accompagné, soutenu, et parfois confronté avec justesse.
Un suivi en santé mentale permet ce travail en profondeur. Il s’inscrit dans le temps, dans la relation, et dans une compréhension nuancée de la personne.
Si certaines réflexions dans cet article résonnent avec votre situation, il peut être pertinent d’en discuter avec un professionnel et d’entamer une démarche d’accompagnement adaptée à vos besoins.
Références
Heinz, M. V., et al. (2025). Randomized trial of a generative AI chatbot for mental health symptoms. NEJM AI.
Luo, X., et al. (2025). Shaping ChatGPT into my digital therapist: A thematic analysis of user experiences. Digital Health.
Scholich, T., et al. (2025). A comparison of responses from human therapists and AI chatbots in mental health scenarios. Journal of Medical Internet Research.
Zhang, Z., et al. (2024). Can AI replace psychotherapists? Frontiers in Psychiatry.
Rousmaniere, T., et al. (2025). Large language models as mental health resources: Patterns of use. Practice Innovations.
Stanford Human-Centered AI. (2025). Exploring the dangers of AI in mental health care.
Canadian Mental Health Association. (2025). AI and mental health care: Opportunities and risks.
Rédigé par : Thinhinane Ould Younes, psychoéducatrice
