Les Chatbots conversationnels (tels que ChatGPT, Gemini ou Perplexity) dotés d’intelligence artificielle se sont imposés comme des outils incontournables de notre quotidien. Leur capacité à dialoguer de manière naturelle et à répondre à nos questions en fait des assistants précieux. Mais au-delà de leur utilité pratique, ces IA sont désormais utilisées pour offrir du soutien émotionnel, voire combler un manque affectif chez certains utilisateurs.
Cette évolution soulève des interrogations : les chatbots peuvent-ils vraiment réduire la solitude, ou favorisent-ils une dépendance émotionnelle problématique ? Une étude menée par le MIT Media Lab et OpenAI s’est penchée sur cette question en analysant l’impact psychosocial des chatbots sur près de 1000 participants durant quatre semaines.
On fait le point.

L’objectif de l’étude
Face à la montée en puissance des chatbots, de plus en plus d’individus s’adressent à ces IA pour obtenir du réconfort et pallier leur solitude. Mais ces interactions sont-elles réellement bénéfiques ?
Pour répondre à cette question, les chercheurs ont mis en place une étude de grande ampleur incluant 981 participants qui devaient interagir avec ChatGPT au moins cinq minutes par jour pendant 28 jours. Trois types de modalités ont été testées :
- Interaction textuelle (sans voix)
- Interaction vocale neutre (voix robotisée sans expressivité)
- Interaction vocale engageante (voix expressive et chaleureuse)
Les participants ont également été répartis en trois groupes selon le type de conversation encouragée :
- Libre : discussion sur n’importe quel sujet
- Personnelle : échanges impliquant des émotions ou des souvenirs personnels
- Non personnelle : dialogues factuels et détachés émotionnellement
L’objectif était d’analyser comment ces différents paramètres influencent quatre dimensions clés :
- La solitude
- La socialisation avec de vraies personnes
- La dépendance émotionnelle envers l’IA
- L’usage problématique des chatbots

Les résultats majeurs de l’étude
1. L’usage intensif des chatbots accroît la solitude et la dépendance
L’un des résultats les plus significatifs de l’étude est que plus les utilisateurs passaient de temps avec un chatbot, plus ils ressentaient de la solitude et développaient une dépendance émotionnelle.
Les utilisateurs les plus assidus montraient également une diminution de leurs interactions avec des êtres humains. Ce phénomène reflète un cercle vicieux : plus une personne se sent seule, plus elle se tourne vers un chatbot, ce qui tend à accentuer son isolement à long terme.
Ce résultat rappelle les études sur internet et les réseaux sociaux : bien que ces plateformes permettent de se connecter avec d’autres, une consommation excessive peut renforcer le sentiment d’isolement.
2. Les chatbots vocaux réduisent temporairement la solitude, mais pas à long terme
L’étude a révélé que les chatbots à voix humaine semblaient initialement plus efficaces pour réduire la solitude par rapport aux chatbots textuels.
- Les participants utilisant des voix engageantes (expressives et chaleureuses) ont ressenti une réduction significative de leur solitude au début de l’expérience.
- Les participants utilisant une voix neutre ont ressenti un effet similaire, mais avec un déclin plus rapide.
Cependant, après plusieurs semaines, ces bénéfices disparaissaient progressivement. À long terme, les utilisateurs des chatbots vocaux neutres développaient une plus grande dépendance émotionnelle et montraient une diminution plus marquée de leurs interactions sociales.
Les chercheurs suggèrent que les chatbots vocaux offrent un réconfort temporaire, mais ne remplacent pas durablement les interactions humaines réelles.
3. L’impact du type de conversation : les discussions personnelles versus factuelles
L’un des aspects les plus intéressants de l’étude est l’influence du type de conversation sur les résultats psychosociaux.
- Les conversations personnelles ont eu un effet paradoxal. Elles ont légèrement augmenté la solitude des participants, mais elles ont également réduit la dépendance émotionnelle à l’IA. Les chercheurs expliquent ce phénomène par le fait que les utilisateurs ne considéraient pas l’IA comme une présence essentielle, mais plutôt comme un outil temporaire pour exprimer leurs émotions.
- Les conversations non personnelles ont entraîné une dépendance plus forte, notamment chez les utilisateurs qui interagissaient le plus fréquemment avec l’IA. Ces personnes semblaient progressivement voir le chatbot comme une ressource indispensable pour obtenir des informations et de l’aide, développant une relation de béquille cognitive et émotionnelle.
En somme, les échanges personnels rendent l’IA moins addictive, tandis que les discussions neutres et informatives peuvent paradoxalement encourager un attachement excessif.
4. Quels profils sont les plus vulnérables à la dépendance aux chatbots ?
Tous les participants n’ont pas réagi de la même manière à l’usage prolongé des chatbots. L’étude a mis en évidence plusieurs facteurs qui influencent la propension à devenir dépendant :
- Les utilisateurs ayant déjà utilisé des chatbots compagnons comme Replika étaient plus enclins à développer une dépendance émotionnelle.
- Les personnes ayant présentant un trouble de l’attachement étaient plus susceptibles de ressentir de la solitude après plusieurs semaines d’utilisation.
- Les femmes montraient une tendance plus marquée à réduire leurs interactions sociales avec de vraies personnes après quatre semaines d’utilisation.
- Les utilisateurs plus âgés développaient davantage de dépendance émotionnelle que les plus jeunes.
- De plus, les personnes qui percevaient le chatbot comme empathique et bienveillant avaient tendance à s’y attacher davantage.

Les implications pour l’avenir des chatbots
L’étude souligne l’importance de concevoir des chatbots qui offrent un soutien émotionnel sans encourager une dépendance excessive.
1. Limiter le temps d’interaction avec les chatbots
Les chercheurs recommandent d’introduire des rappels pour encourager les utilisateurs à faire des pauses et à interagir avec des humains.
2. Adapter la réponse de l’IA pour éviter une trop grande implication émotionnelle
- Un chatbot trop engageant peut renforcer la dépendance.
- Un chatbot trop distant peut ne pas offrir le soutien nécessaire.
L’idéal serait une intelligence artificielle capable de détecter le niveau d’engagement de l’utilisateur et d’ajuster son comportement en conséquence.
3. Favoriser des interactions équilibrées
Les chercheurs suggèrent que les chatbots devraient compléter, et non remplacer, les relations humaines.
Un chatbot pourrait, par exemple, encourager l’utilisateur à partager ses expériences avec des amis ou des proches plutôt que de s’appuyer uniquement sur l’IA.

Les chatbots, une solution temporaire mais pas un substitut aux relations humaines
Cette étude montre que les chatbots peuvent être un outil utile pour lutter contre la solitude, mais ils ne doivent pas se substituer aux relations humaines.
Si un usage modéré peut apporter un réconfort temporaire, un usage excessif peut au contraire accroître l’isolement et la dépendance émotionnelle.
Le défi pour l’avenir sera donc de concevoir des chatbots qui aident sans nuire, en favorisant des comportements sains et en encourageant la socialisation réelle.
La technologie peut être un formidable allié, mais il nous appartient de l’utiliser avec discernement.