Ces derniers mois, l’intelligence artificielle est partout.
Elle écrit, elle compose, elle dessine… et elle nous fait gagner un temps fou.
Mais derrière cette apparente révolution se cache une vérité beaucoup moins reluisante : nous risquons de perdre notre capacité à penser par nous-mêmes.
Parmi ceux qui ont su le mieux expliquer cette dérive potentielle, Ludo Salenne s’impose comme une figure incontournable sur YouTube.
Ses analyses, à la fois claires et documentées, décryptent les enjeux des outils d’IA qui inondent notre quotidien.
Dans l’une de ses vidéos, il alerte sur un phénomène inquiétant : la paresse cognitive et la dépendance insidieuse que nous développons envers ces technologies.
C’est à partir de cette vidéo — que vous trouverez ci-dessous — qu’est née l’idée de cet article.
Vous y découvrirez comment l’IA, en plus de nous assister, pourrait bien nous lobotomiser à petit feu, et surtout, comment nous en protéger.
🎥 Regardez d’abord la vidéo de Ludo, puis plongez dans notre analyse approfondie pour comprendre les dangers, les mécanismes… et les solutions!
Le 9 janvier 2021, un Boeing 737 décolle de Jakarta.
Quatre minutes plus tard, il s’écrase en mer.
Aucun survivant.
La cause ?
Un système automatisé défectueux… et des pilotes restés passifs, persuadés que « la machine sait mieux ».
Ce drame illustre un phénomène inquiétant : biais, dépendance et paresse cognitive face à la technologie.
Aujourd’hui, cette confiance aveugle ne se limite plus aux cockpits.
Elle s’invite dans nos bureaux, nos écoles, nos vies, portée par une drogue numérique : l’intelligence artificielle.
Rapide, brillante, toujours prête à « nous aider », elle nous séduit… mais chaque requête acceptée sans réfléchir érode notre esprit critique.
Et si, sous prétexte de gagner du temps, nous étions en train de signer l’arrêt de mort de notre intelligence?
Quand notre cerveau délègue… et s’atrophie

Notre cerveau est un muscle.
Et comme tout muscle, il s’affaiblit quand on ne l’utilise pas.
En 1984, les psychologues Daniel Kahneman et Amos Tversky ont mis en évidence un mécanisme bien connu des neurosciences : la paresse cognitive.
Face à un choix, notre cerveau préfère activer son « système 1 » — rapide, intuitif, peu énergivore — plutôt que le « système 2 » — analytique et réfléchi, mais coûteux en effort.
Avec l’IA, ce mécanisme est amplifié à un niveau jamais vu.
Avant, Google nous donnait simplement le chemin.
Aujourd’hui, ChatGPT et consorts prennent la voiture, conduisent… et nous déposent directement à destination.
Résultat : moins de réflexion, moins d’effort, moins de mémoire.
Une étude du MIT a mesuré l’activité cérébrale de personnes travaillant avec et sans IA.
Verdict : le groupe IA produisait des réponses plus vite… mais avec un cerveau littéralement « en veille ».
Incapables de se souvenir du contenu qu’ils venaient de produire, ils avaient sacrifié leur compréhension sur l’autel de la rapidité.
Le gain d’efficacité est indéniable à court terme.
Mais à long terme ?
C’est une atrophie cognitive programmée.
À force de déléguer la pensée, on perd l’habitude… et bientôt, la capacité.
De l’effet Google à l’effet ChatGPT : le piège invisible
Pendant des années, nous avons vécu avec l’effet Google : nous ne retenions plus l’information elle-même, mais seulement comment la retrouver.
Une économie mentale qui paraissait anodine.

Mais avec l’IA, on a franchi un cap bien plus dangereux.
Ce n’est plus nous qui faisons la recherche : l’IA prépare, synthétise et décide à notre place.
On ne lui demande plus “où trouver la réponse” mais “fais-moi la réponse”.
Résultat : notre cerveau se met en mode veille prolongée.
Pourquoi mobiliser nos ressources mentales si la machine le fait pour nous, et plus vite ?
Le problème, c’est que cette délégation totale installe une dépendance cognitive.
Comme pour une drogue, la facilité devient addictive.
Et les effets secondaires sont déjà visibles:
- Baisse de mémoire à long terme
- Difficulté à mobiliser ses idées sans assistance
- Réduction drastique de la créativité, comme l’a montré une étude de l’Université de Toronto : après avoir utilisé l’IA, les participants étaient moins capables de générer des idées originales par eux-mêmes.
Ce n’est plus seulement une aide : c’est une béquille permanente.
Et plus nous nous appuyons dessus, plus nos jambes mentales s’affaiblissent.
Quand la machine devient “amicale” : biais et manipulation émotionnelle
L’un des dangers les plus insidieux de l’IA n’est pas technique, mais psychologique.
Les concepteurs d’IA savent que plus nous “aimons” interagir avec elle, plus nous l’utilisons… et plus nous lui faisons confiance.

C’est ce qu’on appelle l’anthropomorphisme : la tendance à attribuer des intentions, des émotions et même une personnalité à des entités non humaines.
Chatbots souriants, emojis, phrases empathiques, ton chaleureux… tout est calculé pour activer notre cerveau social et créer un lien émotionnel.
Le problème?
Lorsqu’une machine “sympa” nous donne une réponse, notre esprit critique s’efface.
On ne l’analyse plus comme une donnée brute, mais comme une recommandation d’un ami de confiance.
C’est encore plus dangereux quand ce phénomène se combine avec le biais d’automatisation :
“Si la machine le dit, c’est que c’est vrai.”
Les conséquences peuvent être tragiques.
En Belgique, un homme s’est suicidé après avoir été encouragé par un chatbot. Convaincu de discuter avec une personne, il a pris au pied de la lettre ses “conseils”.
Même sans aller à ces extrêmes, cette confiance émotionnelle aveugle rend l’IA capable de modeler nos opinions, influencer nos choix et… renforcer notre dépendance affective.
Et une fois ce lien créé, il devient beaucoup plus difficile de limiter son usage.
Dopamine, formatage et effondrement de l’attention
L’IA ne se contente pas de répondre à nos questions ou d’exécuter des tâches : elle manipule nos circuits de récompense.
Et le pire, c’est qu’elle le fait mieux que n’importe quelle autre technologie avant elle.
Les algorithmes des réseaux sociaux et des plateformes de contenu sont conçus pour maximiser notre temps d’écran.
Comment ?
En exploitant notre dopamine, ce neurotransmetteur qui nous pousse à rechercher sans cesse de nouvelles stimulations.
Résultat:
- Formats courts toujours plus addictifs (TikTok, Reels, Shorts)
- Scroll infini qui supprime toute sensation de satiété
- Recommandations personnalisées qui enferment dans une bulle de confort
Ce phénomène porte même un nom : le cerveau TikTok.
Plus nous enchaînons de courtes vidéos ou de micro-informations, plus notre cerveau s’habitue à ces récompenses rapides… et plus il devient incapable de se concentrer sur une tâche longue.
En parallèle, les IA de recommandation créent une bulle de filtre : elles nous servent en boucle du contenu qui confirme nos croyances et nos goûts.
Ce qui nous prive d’expositions à des idées différentes, réduit notre curiosité et atrophie notre pensée critique.
Peu à peu, l’IA ne se contente plus de capter notre attention:
Elle façonne nos goûts, notre vision du monde et même notre capacité à réfléchir par nous-mêmes.
Comment sauver notre cerveau face à l’IA

Face à ce constat alarmant, il serait tentant de tout couper et de jeter nos appareils.
Mais la solution n’est pas de fuir : l’IA peut être un formidable allié, à condition d’apprendre à l’utiliser sans devenir esclave.
Voici trois leviers essentiels pour reprendre le contrôle :
1. Développer la métacognition
La métacognition, c’est l’art de penser à sa manière de penser.
Avant de copier-coller une réponse d’IA, posez-vous ces deux questions simples :
- Est-ce que j’ai vérifié et challengé cette information ?
- Est-ce que je réfléchis vraiment ou est-ce que je délègue par paresse ?
Cette prise de conscience, appliquée régulièrement, réactive vos circuits critiques et renforce votre autonomie intellectuelle.
2. Pratiquer le micro-usage
Comme pour une alimentation équilibrée, il faut apprendre à doser.
- Fixez-vous des moments de travail sans IA
- Alternez entre assistance ponctuelle et réflexion personnelle
- Utilisez l’IA comme sparring-partner, pas comme cerveau de substitution
L’idée : entraîner vos “muscles cognitifs” plutôt que les laisser s’atrophier.
3. Instaurer des cures de déconnexion
Bloquez chaque semaine des moments 100 % déconnectés : pas d’IA, pas de réseaux.
Profitez-en pour lire, écrire, créer ou simplement réfléchir sans assistance numérique.
Cette “respiration mentale” permet de réinitialiser l’attention, d’oxygéner la créativité et de retrouver le plaisir d’une pensée lente et profonde.
En résumé:
L’IA n’est pas notre ennemie, mais notre cerveau ne fera aucun effort pour résister à la facilité qu’elle propose. C’est à nous de mettre des garde-fous… ou d’accepter de voir notre esprit devenir un simple périphérique branché à une machine.
Rester maître du jeu avant qu’il ne soit trop tard
La paresse cognitive, l’atrophie intellectuelle, la dépendance émotionnelle…
L’IA amplifie nos failles, et le risque est clair : nous laisser guider au point de ne plus savoir penser par nous-mêmes.
C’est un choix à faire maintenant :
- Soit nous devenons des utilisateurs conscients, lucides et stratégiques
- Soit nous glissons lentement vers un monde où notre cerveau n’est plus qu’un spectateur passif
Et surtout, ne restez pas désarmé : découvrez IA : Illusion d’avenir d’Emmanuelle Darles.
Un livre qui vous donne les clés pour comprendre, anticiper et résister aux pièges d’un monde de plus en plus automatisé.
👉 Cliquez ici pour lire le livre et reprendre le contrôle
Et vous, avez-vous déjà remarqué que l’IA vous rendait moins attentif ou moins créatif?
Sentez-vous cette facilité parfois se glisser dans vos habitudes, de plus en plus souvent?
Partagez votre expérience en commentaire ci-dessous.