Pourquoi les salariés se confient à une IA et quels risques pour l’entreprise ?

14 November 2025

Favicon Pros consulte

Un nouveau réflexe révélateur du malaise au travail

Julien a 28 ans. Cadre prometteur, impliqué, autonome. Ce lundi matin, il ouvre son ordinateur après un week-end lourd : ruminations, fatigue, tensions, stress d’une présentation stratégique pour le COMEX.

Mais Julien ne contacte ni son manager, ni la médecine du travail, ni même un collègue de confiance. Il parle… à une IA conversationnelle.

Quelques lignes tapées à la hâte. Une réponse instantanée, empathique, structurée. Un soulagement temporaire. Puis un retour au travail, comme si de rien n’était.

Ce geste, autrefois marginal, devient un comportement massif dans les organisations.

Selon une étude Oracle x Workplace Intelligence, 82 % des salariés dans le monde déclarent préférer s’adresser à des robots plutôt qu’à des humains pour parler de santé mentale.

Ce chiffre ne dit pas que l’IA est meilleure. Il dit que quelque chose ne va plus dans le système humain :

  • Manque d’écoute,
  • Manque de repères,
  • Peur du jugement,
  • Manque de disponibilité,
  • Dispositifs internes mal identifiés.

Alors, que révèle ce mouvement ? Quels risques psychosociaux l’IA peut-elle masquer ? Et comment les entreprises doivent-elles encadrer cette nouvelle pratique ?

En tant qu'expert en santé mentale au travail, voici une analyse approfondie et complétée de recommandations opérationnelles pour les responsables RH, QVCT, RSE et managers.

En synthèse :

Pourquoi les salariés se tournent vers l’IA pour parler de santé mentale ?

Parce que l’IA offre une écoute immédiate, sans jugement, disponible 24/7, et perçue comme moins risquée qu’un échange humain dans l’entreprise.

Qu’est-ce que cela révèle pour l’organisation ?

Un manque d’espaces d’écoute crédibles, une culture managériale fragilisée, une faible visibilité des dispositifs internes et parfois une perte progressive de confiance.

Quels sont les risques pour l’entreprise ?

Aveuglement sur l’état réel du climat social, retards dans la détection des signaux faibles, dérives éthiques, décisions prises sur des données non maîtrisées, et confusion entre écoute et prise en charge.

Quels sont les risques pour les salariés ?

Une absence de relation thérapeutique, pas de suivi, pas d’alliance, pas de supervision, des réponses parfois inadaptées, et une illusion d’aide pouvant retarder une vraie prise en charge.

Que doivent faire les RH ?

Encadrer l’usage de l’IA, renforcer les dispositifs humains, rendre les canaux internes visibles et crédibles, former les managers, et clarifier un cadre éthique d’utilisation.

Pourquoi les collaborateurs se tournent vers l’IA : un phénomène psychologique avant d’être technologique

Des chiffres qui interpellent les RH

Le chiffre Oracle (82 %) signe un basculement massif : les salariés adoptent les IA conversationnelles comme premier espace d’expression émotionnelle. Ce n’est pas un “effet mode”. C’est devenu un raccourci psychologique.

Les vraies raisons psychologiques

Les salariés se tournent vers l’intelligence artificielle non pas parce qu’elle est performante, mais parce qu’elle ne juge pas.

  • Anonymat absolu : On peut tout dire, sans crainte de conséquence.
  • Immédiateté de la réponse : La souffrance, elle, n’attend jamais que la RH soit disponible.
  • Neutralité émotionnelle : Aucun ton, aucun soupir, aucun regard.
  • Évitement relationnel : Beaucoup de salariés n’osent plus exposer leurs fragilités à leurs pairs ou à leurs managers.

L’IA devient un sas de décompression. Mais un sas qui ne mène nulle part si l’humain ne prend pas le relais.

Les limites de l’IA dans la santé mentale au travail : ce qu’un chatbot ne pourra jamais faire

Contrairement à ce que certains messages marketing laissent croire, l’IA ne sait pas accompagner la santé mentale. Elle sait imiter une réponse empathique, rien de plus.

Limite n°1 : Absence d’évaluation clinique

L’IA n’évalue pas les risques réels comme l'intensité de la détresse, la durée, les signes d’effondrement, ou encore les éléments contextuels organisationnels.

Limite n°2 : Pas de nuance psychologique

Elle “répond” mais ne comprend pas.

Limite n°3 : Incapacité à détecter les RPS organisationnels

Les risques psychosociaux (RPS) dépendent de la charge, du management, de l’équité perçue, du soutien social, ou encore du cadre organisationnel.

Aucun chatbot n’a accès à ces éléments.

Limite n°4 : Pas de relation thérapeutique

Il manque : l'alliance (lien de confiance réelle entre deux personnes), le transfert (la personne se projette et se sécurise avec le thérapeute), la supervision (le thérapeute partage avec ses collègues son analyse de pratique), le suivi qui apporte une compréhension de l'évolution.

L’IA peut apaiser sur l’instant, mais pas protéger dans la durée.

Les risques pour les salariés : le paradoxe de “l’illusion d’écoute”

L’IA crée un piège psychologique : elle soulage sans traiter.

Soulagement immédiat… aggravation à moyen terme

Un salarié harcelé peut recevoir une réponse empathique :“Je comprends votre souffrance, vous n’êtes pas seul.” Il se sent mieux. Il ne parle à personne dans l’entreprise. L’entreprise ne détecte rien. Le harcèlement continue. Trois mois plus tard : arrêt long + burnout.

Le risque n’est pas l’IA, c'est l’absence de remontée interne.

Un isolement progressif

La parole se déporte hors du collectif.


Le salarié :

  • parle moins au manager,
  • se coupe de ses collègues,
  • évite les conflits en face-à-face,
  • se réfugie dans l’IA.

Une escalade silencieuse

Sans échanges humains, les signaux faibles disparaissent :

  • irritabilité,
  • baisse de performance,
  • comportements inhabituels,
  • retards répétés,
  • évitement des réunions.

L’entreprise ne voit rien...Jusqu’à la crise !

Personne travaillant seule devant son ordinateur

Les risques pour l’entreprise : invisibilisation, responsabilité et impact business

L’obligation légale demeure, même si l’IA “écoute”

Selon l’article L4121-1 du Code du travail, l’employeur doit protéger la santé physique et mentale des salariés.

Si les salariés confient leur détresse à une IA au lieu d’utiliser les dispositifs internes, cela révèle un défaut de prévention.

Une perte de vision RH : l’entreprise devient aveugle

Quand les salariés se confient ailleurs, l’entreprise perd l’essentiel : les signaux faibles, la compréhension du climat social, les tensions qui s’installent entre les équipes, les difficultés managériales et les situations de surcharge qui auraient dû être détectées. Ce n’est plus seulement un enjeu RH : c’est un véritable risque stratégique pour l’organisation.

Conséquences business très concrètes

  • Arrêts maladie psychiques : coûts directs + désorganisation.
  • Turnover accru : perte de compétences clés.
  • Conflits latents non traités : enquêtes plus complexes et coûteuses.
  • Harcèlement non détecté : risques prud’homaux majeurs.
  • Ambiance dégradée : baisse de productivité mesurable.
  • Perte de confiance dans la ligne managériale : fuite des talents.

Quand l’IA absorbe la parole, l’entreprise perd la maîtrise de sa prévention.

Les actions prioritaires pour les RH dès maintenant

Renforcer les espaces d’écoute humains

Pour réduire le recours substitutif à l’IA, l’entreprise doit d’abord rendre sa ligne d’écoute psychologique beaucoup plus visible et accessible, puis communiquer régulièrement via Teams, l’affichage ou la newsletter, pour rappeler que ces dispositifs existent et qu’ils sont faits pour être utilisés. Il s’agit aussi de dédramatiser le recours aux services internes en montrant qu’ils ne sont ni stigmatisants ni réservés aux situations extrêmes. Partager des témoignages anonymisés peut aider à créer cette confiance, tout comme l’intégration de véritables “points bien-être” dans les réunions managériales, afin de normaliser les échanges autour de la santé mentale au quotidien.

Former les managers au repérage (prévention primaire)

Le manager ne devient pas psychologue. Il devient observateur et conseiller d'orientation.

Les compétences clés sont simples à formuler mais essentielles à maîtriser : savoir remarquer les changements de comportement, oser questionner sans maladresse, éviter toute forme de minimisation et être capable d’orienter vers les bons professionnels au bon moment. C’est exactement ce que permettent les formations RPS : elles apportent aux managers les outils, les repères et les méthodes pour agir avec justesse et protéger réellement leurs équipes.

Créer une charte éthique IA

Une charte d’utilisation de l’IA doit définir clairement les usages autorisés, les limites de l’outil, les responsabilités de chacun ainsi que les types de données qui ne peuvent pas être collectées. Elle doit également préciser les situations où l’IA doit impérativement rediriger vers un professionnel humain. Concrètement, certains mots-clés doivent déclencher automatiquement une alerte ou un transfert vers un psychologue du travail ou un dispositif interne : par exemple « harcèlement », « je veux disparaître », « je n’en peux plus », « surcharge » ou encore « je veux que ça s’arrête ». Ces signaux nécessitent une prise en charge humaine immédiate, hors du champ légitime d’un chatbot.

Intégrer l’IA DANS la prévention (pas à côté)

L’IA peut jouer un rôle d’appui intéressant lorsqu’elle est bien encadrée : elle oriente le collaborateur vers les ressources internes appropriées, délivre des contenus de psychoéducation sur des sujets comme le stress ou la charge mentale, rappelle clairement les limites de son propre rôle et, lorsque la situation le nécessite, encourage la personne à contacter la ligne d’écoute ou un professionnel qualifié.

Indicateurs RH à suivre pour détecter un usage substitutif

KPI QVCT essentiels :

  • Taux d’absentéisme
  • Arrêts maladie psychiques
  • Sollicitations de la ligne d’écoute
  • Turnover
  • Conflits déclarés
  • Indice de climat social
  • Baromètre charge mentale

Si ces chiffres se dégradent pendant que l’usage de l’IA augmente, c’est un signal d’alerte majeur.

Checklist RH immédiate

À vérifier dès demain :

  • Dispositifs internes visibles
  • Managers formés
  • Charte IA existante
  • Garde-fous sur les signaux forts
  • Communication claire
  • KPI QVCT suivis
  • Messages automatiques : “IA = sas, pas substitut”.

Vers un équilibre IA / Humain : le véritable défi des RH pour 2026

L’enjeu est double. D’un côté, l’IA peut devenir une technologie qui « écoute » mais qui, paradoxalement, coupe la parole interne : Elle détourne l’attention des dispositifs humains, retarde les alertes et repousse la prévention.

De l’autre, elle représente aussi une véritable opportunité : Elle facilite le premier pas, débloque l’expression émotionnelle et permet d’orienter plus tôt un salarié vers un soutien humain.

Tout se joue donc dans l’équilibre : faire de l’IA un outil d’orientation, jamais un outil de substitution.

Conclusion : protéger l’humain en utilisant l’IA comme un révélateur, pas comme un substitut

L’histoire de Julien, ce n’est pas un cas isolé. C’est le symptôme d’une transformation profonde dans les entreprises.

Quand les salariés choisissent de se confier à une IA plutôt qu’à leur organisation, c’est souvent le signe d’un manque d’espaces d’écoute, d’une culture managériale fragile, de dispositifs internes peu visibles, de peurs de jugement ou de conséquences, et parfois même d’une perte de confiance progressive envers l’entreprise.

L’enjeu devient alors double : Encadrer l’usage de l’IA tout en renforçant les dispositifs humains, rendre l’écoute interne réellement accessible et crédible, et réinstaller de la confiance dans la relation humaine. Car si l’IA peut aider à libérer la parole, seule la présence humaine protège véritablement la santé mentale au travail.

Thomas Planchet

Live Pros Consulte :
Découvrez les bonnes pratiques bien-être au travail et prévention des risques psychosociaux

Découvrir webikeo

blog

Découvrez nos derniers articles
Voir tout