Bienvenue sur Des Livres Pour Changer de Vie ! Si vous êtes nouveau ici, vous voudrez sans doute recevoir mon livre "Vivez la vie de vos rêves grâce à votre blog" : cliquez ici pour recevoir le livre gratuitement ! 🙂
Bienvenue à nouveau sur Des Livres Pour Changer de Vie ! Comme ce n'est pas la 1ère fois que vous venez ici, vous voudrez sans doute recevoir mon livre "Vivez la vie de vos rêves grâce à votre blog" : cliquez ici pour recevoir le livre gratuitement ! 🙂
Résumé de « Apprendre ! Les talents du cerveau, le défi des machines » de Stanislas Dehaene : un livre sur l’apprentissage croisé des enfants et des machines par l’un des plus grands spécialistes français en neurosciences et professeur au prestigieux Collège de France.
Par Stanislas Dehaene, 2018, 370 pages.
Chronique et résumé de « Apprendre ! Les talents du cerveau, le défi des machines » de Stanislas Dehaene
Introduction
L’hôpital Sarah de Brasilia accueille Felipe, sept ans, blessé par balle à l’âge de quatre ans. Il est tétraparétique (immobilisation partielle des quatre membres liée à la moelle épinière) et aveugle. Toutefois, son esprit reste vif. Stanislas Dehaene découvre son talent pour les langues et l’écriture. Felipe rédige des contes et manipule trois langues avec aisance.
Des cas similaires inspirent l’auteur, comme ceux de Helen Keller et Marie Heurtin. Sourdes et aveugles, elles apprennent néanmoins le langage des signes et deviennent des adultes accomplies. Emmanuel Giroux, mathématicien aveugle, manipule la géométrie grâce au recyclage de son cortex visuel. Il démontre que la plasticité cérébrale surpasse les frontières sensorielles.
Nico, un jeune peintre, perd la quasi-totalité de son hémisphère droit à l’âge de trois ans. Il développe néanmoins ses talents artistiques, sportifs et intellectuels dans le seul hémisphère gauche. Stanislas Dehaene observe comment ce cerveau unique assume parole, lecture et créativité. Cette histoire confirme la puissance adaptative du cerveau.
Naguère, les orphelinats de Bucarest, tristement célèbres, laissaient les enfants dans un isolement massif. Pourtant, beaucoup ont retrouvé une trajectoire de vie normale s’ils étaient adoptés tôt. L’auteur souligne la résilience cérébrale, qui protège même dans un environnement hostile. Langage, mathématiques et création artistique survivent à d’immenses traumatismes.
Mais certains accidents bloquent l’apprentissage. Une lésion minime provoque l’alexie pure, supprimant brutalement la lecture. Des adultes cultivés régressent alors au niveau d’un débutant. Stanislas Dehaene s’interroge sur l’origine de ces blocages et explore les mystères de la plasticité.
L’apprentissage demeure vital pour l’humanité. Le cerveau surmonte d’immenses défis. Stanislas Dehaene révèle l’extraordinaire force de nos circuits cognitifs avec brio. La plasticité cérébrale agit de façon surprenante. Elle peut surmonter d’immenses déficits ou laisser certains enfants et adultes motivés face à un blocage durable. Stanislas Dehaene explore les circuits, les règles et l’impact de l’âge sur cette plasticité.
Pour ce faire, il s’appuie sur plusieurs disciplines :
- Les sciences cognitives ;
- Les neurosciences ;
- L’intelligence artificielle ;
- L’éducation.
Pourquoi l’apprentissage ?
Apprendre est essentiel car il serait impossible de coder toutes nos connaissances dans le génome, dont la capacité reste modeste. L’évolution a conçu la plasticité et l’apprentissage pour s’adapter rapidement à des environnements imprévisibles, sans attendre de multiples générations pour sélectionner des mutations avantageuses.
Même le minuscule ver C. elegans, doté d’à peine 302 neurones, apprend par habituation et association. Dès qu’il y a un bénéfice pour la survie, l’ajustement comportemental fait la différence. Notre cerveau, avec ses 86 milliards de neurones et ses innombrables connexions, ne peut être entièrement précâblé.
L’ADN définit plutôt une architecture générale. L’apprentissage complète cette structure, en s’adaptant finement et progressivement à la culture, à la langue et aux expériences individuelles. Une large part de la pensée est innée, mais l’acquis la peaufine. Grâce à son enfance prolongée, l’espèce humaine a fait de l’apprentissage sa spécialité. Nous tirons parti d’un équilibre entre génétique et environnement.
Homo Docens
L’auteur note que l’espèce humaine se distingue par sa capacité à apprendre. Nous devenons des Homo docens, car nous acquérons l’essentiel de nos connaissances en explorant et en enseignant. Cette flexibilité nous permet de conquérir déserts, montagnes et même la Lune.
L’invention de l’école renforce ce potentiel. L’enseignement actif, centré sur l’enfant, optimise la plasticité cérébrale. Les universités servent de raffineries neuronales, amplifiant nos compétences cognitives.
L’éducation nationale constitue ainsi le principal accélérateur du cerveau. Elle affine lecture, écriture, calcul et mémoire. Les personnes scolarisées affichent une mémoire immédiate nettement supérieure à celle des analphabètes. Ainsi, la scolarisation élargit notre horizon.
Apprendre à apprendre
L’auteur insiste sur l’importance de comprendre et de maîtriser les mécanismes fondamentaux de l’apprentissage. Il explique que chacun jongle avec ces processus sans formation explicite. Or, la métacognition (la perception que nous avons de nos propres apprentissages et connaissances en tant qu’apprenant) s’avère cruciale pour mémoriser et comprendre plus efficacement.
Selon le scientifique, l’éducation doit aider les élèves à apprendre à apprendre. Tous les enfants partagent une architecture neuronale similaire, mais les enseignants doivent connaître leurs intuitions et leurs erreurs pour mieux guider leur progression.
Le défi des machines
Stanislas Dehaene observe que l’intelligence artificielle apprend désormais à un niveau proche de l’humain. Les algorithmes reconnaissent les visages, les voix, et traduisent des langues. Toutefois, elles reposent sur des données massives, là où notre cerveau, lui, excelle avec peu d’exemples.
Comment ? Grâce à l’attention, au sommeil et à la manipulation des probabilités. Les machines progressent, certes, mais elles doivent encore adopter ces facultés biologiques pour aller plus loin.
Stanislas Dehaene souligne que le raisonnement humain inclut un langage de la pensée probabiliste. Cette approche rejette les hypothèses fausses et retient les plus probables. Depuis peu, les chercheurs en IA tentent de copier ces processus à l’aide d’algorithmes bayésiens, plus efficaces et capables d’apprendre comme un scientifique. Ceux-ci pourraient bouleverser le machine learning.
L’auteur explore cette « théorie du cerveau bayésien » qui montre comment l’apprentissage s’appuie sur des hypothèses innées adaptées à l’environnement. Il s’intéresse en particulier aux prodigieuses facultés du bébé, statisticien en herbe.
Il décrit finalement quatre piliers fondamentaux :
- Attention ;
- Engagement actif ;
- Signal d’erreur ;
- Consolidation.
Appliquer ces principes améliore nos pratiques d’enseignement et nos capacités d’apprentissage.
« Partons donc, ensemble, explorer ce que nous comprenons aujourd’hui de l’apprentissage. » (Apprendre !, Introduction).

Première partie — Qu’est-ce qu’apprendre ?
Chapitre 1 — Comment un réseau de neurones apprend
La plasticité du cerveau naît des innombrables modèles du monde qu’il contient. Chacun, comparable à une maquette, représente un aspect de la réalité : langage, corps, environnement, relations humaines. Apprendre, c’est affiner l’un de ces modèles, en intégrant un pan jusque-là inconnu. Ainsi, le cerveau s’approprie progressivement de nouvelles compétences essentielles.
Apprendre, c’est ajuster les paramètres d’un modèle mental
Stanislas Dehaene explique que le cerveau ajuste en permanence ses modèles mentaux pour s’adapter. Exemple : la vision décalée par des lunettes à prisme. En quelques essais, le cerveau corrige le paramètre d’angle de visée et atteint une coordination précise.
Cependant, la plupart des apprentissages nécessitent l’ajustement de multiples paramètres.
Ainsi, l’apprentissage d’une langue, comme le japonais, mobilise de nombreux réglages. Le bébé doit découvrir quelles catégories de sons, consonnes et voyelles, distinguer et comment les associer. Il doit aussi fixer des paramètres grammaticaux, comme l’ordre des mots et la position du verbe. Le japonais, par exemple, inverse la structure du français en plaçant le verbe en dernier.
Ce processus d’apprentissage des langues illustre un principe général. Apprendre consiste à affiner un modèle interne, qui reflète l’état réel du monde.
Apprendre, c’est exploiter le potentiel de la combinatoire
L’auteur décrit l’apprentissage d’une langue comme un paramétrage complexe. Rendez-vous compte : même cinquante paramètres binaires génèrent plus d’un million de milliards de combinaisons ! Les 86 milliards de neurones, chacun doté de milliers de synapses, rendent l’espace de possibilités pratiquement infini.
Le cerveau décompose la langue en plusieurs niveaux : phonèmes, syllabes, mots, puis phrases. Il recherche à chaque stade des régularités spécifiques, qu’il combine ensuite. Ainsi, l’aire visuelle primaire se concentre sur de petits segments, comme des lignes, tandis que des régions plus profondes intègrent ces éléments pour former des objets entiers ou des scènes.
Le même principe s’applique en linguistique, où l’enfant détecte d’abord les sons pertinents, avant d’établir l’ordre des mots et la grammaire. Cette hiérarchie permet d’ajuster chaque paramètre afin de refléter la structure authentique de la langue.
Apprendre signifie donc fixer un ensemble colossal de réglages cérébraux, fondés sur des lois combinatoires rigoureuses, pour acquérir des connaissances complexes.
Apprendre, c’est minimiser ses erreurs
Les réseaux de neurones artificiels, calqués sur l’organisation hiérarchique du cortex, comportent plusieurs « couches » superposées. Chacune analyse les informations de la couche précédente pour en extraire des caractéristiques de plus en plus complexes.
Cette méthode, dite d’« apprentissage profond », repose sur la rétropropagation de l’erreur : le système compare la sortie obtenue à la sortie correcte, puis ajuste ses paramètres afin de réduire l’écart. Ainsi, comme un tireur qui affine son viseur, il corrige progressivement ses connexions internes.
Yann Le Cun a montré l’efficacité de ce principe dès les années 1990 avec LeNet, capable de reconnaître automatiquement des chiffres manuscrits, utilisé par la Poste canadienne. Aujourd’hui, des réseaux gigantesques comme GoogLeNet catégorisent des milliers d’objets différents dans des images. À chaque couche, le réseau construit des regroupements de plus en plus abstraits : traits, parties d’objets, objets entiers, etc.
Cette hiérarchie de représentations se retrouve dans de nombreux domaines (texte, musique) et constitue le cœur de nombreuses applications modernes (reconnaissance vocale, voitures autonomes).
💡 Pour s’informer avec plus de précision sur le travail de Yann LeCun, grand spécialiste français d’intelligence artificielle, voir son livre événement Quand la machine apprend.
Apprendre, c’est explorer l’espace des possibles

L’auteur explique qu’une simple descente de gradient peut bloquer l’apprentissage dans un minimum local. Pour l’éviter, l’algorithme doit parfois « remonter la pente » avant de redescendre ailleurs. L’ajout de hasard augmente les chances de trouver un réglage plus optimal.
Ils introduisent des mutations aléatoires ou utilisent le recuit simulé, une méthode inspirée de la ferronnerie. La température virtuelle baisse progressivement. Elle immobilise le système dans une meilleure configuration.
Notre cerveau applique ce hasard contrôlé. L’enfant explore en jouant, se trompe et apprend de ses erreurs. Il consolide ses découvertes durant le sommeil. Ainsi, la curiosité semi-aléatoire optimise l’apprentissage, et cela à tout âge !
Apprendre, c’est optimiser une fonction de récompense
L’auteur explique aussi que l’apprentissage supervisé requiert une réponse correcte à chaque essai, tandis que l’apprentissage par récompense ne fournit qu’un score global, souvent différé. Les chercheurs ont donc développé la stratégie acteur-critique : l’un évalue l’état du système (le critique), l’autre agit (l’acteur) en se fondant sur l’évaluation du premier.
DeepMind, filiale de Google, a ainsi créé des réseaux de neurones capables d’exceller à divers jeux vidéo, puis d’optimiser la consommation d’énergie de Google. Le système AlphaGo, lui, a surpassé les meilleurs joueurs de go grâce à ce principe. D’autres algorithmes, dits adversariaux, opposent deux réseaux : l’un apprend à authentifier un tableau, l’autre à en produire un faux convaincant.
Dans notre cerveau, des aires spécialisées s’affrontent, se coordonnent et s’autoévaluent pour affiner nos décisions. La métacognition, c’est-à-dire la capacité à juger ses propres connaissances et actions, joue un rôle essentiel dans nos apprentissages et peut favoriser ou freiner nos progrès.
Apprendre, c’est restreindre l’espace de recherche
Les réseaux de neurones actuels souffrent souvent de deux problèmes :
- La lenteur de l’apprentissage, due à la taille gigantesque de l’espace des paramètres à explorer ;
- Le surapprentissage (overfitting), où le système mémorise trop les données et échoue à généraliser.
Pour y remédier, la solution consiste à réduire le nombre de paramètres, comme dans les réseaux à convolution de Yann Le Cun. Ils réutilisent partout les mêmes filtres et limitent donc l’explosion combinatoire.
Résultat : un apprentissage beaucoup plus rapide et une meilleure capacité à traiter des images ou des voix jamais vues auparavant. L’idée se généralise et permet déjà la reconnaissance d’images et de la parole.
Apprendre, c’est projeter des hypothèses a priori
Les réseaux à convolution de Yann Le Cun montrent encore l’importance d’intégrer des connaissances innées. Plutôt que d’apprendre tout à partir de zéro, ils intègrent la contrainte de l’invariance (même forme, où qu’elle apparaisse dans l’image). Stanislas Dehaene souligne que notre cerveau procède de la même façon. Dès la naissance, il possède déjà des a priori : objets solides, personnes animées, etc.
Ces connaissances abstraites résultent de l’évolution, considérée comme un algorithme d’apprentissage sur des millions d’années. Le génome spécifie des hyperparamètres qui restreignent l’espace de recherche et accélèrent l’apprentissage ultérieur. Le cerveau projette ainsi des hypothèses sur le monde, puis élimine celles qui ne conviennent pas.
Chapitre 2 — Pourquoi notre cerveau apprend mieux que les machines
La plupart des chercheurs en sciences cognitives savent que les avancées de l’IA demeurent limitées. Elles modélisent la perception inconsciente, mais pas la réflexion consciente, lente et symbolique. Les machines s’appuient surtout sur la classification. Le cerveau humain hiérarchise, généralise et partage des principes explicites, ce qui reste encore hors de portée, actuellement, pour les machines.
Ce qui manque encore à l’intelligence artificielle
Les systèmes d’intelligence artificielle actuels restent loin de la flexibilité cognitive d’un enfant. Leur apprentissage repose souvent sur d’immenses bases de données et il redevient inefficace face aux moindres variations.
De leur côté, même les jeunes humains manipulent des concepts abstraits (comme celui de la lettre A) et effectuent des déductions logiques, tout en s’appuyant sur une représentation symbolique qui leur permet de reconsidérer, réfléchir et corriger leurs erreurs. Ils s’avèrent capables d’un apprentissage rapide, parfois en un seul essai, et intègrent immédiatement ce qu’ils apprennent à un réseau de connaissances existant, qu’ils peuvent recombiner pour d’autres tâches.
Les humains font également preuve d’un apprentissage social développé, en partageant leur savoir par le langage. Les machines actuelles, même performantes, ne possèdent pas cette aptitude: elles se confinent à un domaine restreint et ne réutilisent pas aisément leurs acquis ailleurs. Par exemple, AlphaGo ne sait rien d’autre que le jeu de go et ne peut maîtriser instantanément un variant différent du plateau.
Notre cerveau, lui, fonctionne comme une machine symbolique universelle, manipulant un “langage de la pensée” qui autorise l’infini, la négation et la récursivité. Relever le défi de cette intelligence de second niveau demeure un enjeu central pour la recherche en IA.
Apprendre, c’est inférer la grammaire d’un domaine
L’auteur souligne l’importance des lois abstraites dans l’apprentissage humain. Les enfants formulent rapidement des hypothèses de haut niveau pour interpréter chaque situation. Cette méthode hiérarchisée accélère énormément l’acquisition de connaissances.
Les enfants appliquent ce principe en apprenant les mots. Ils testent d’abord l’hypothèse la plus étroite (« chien » = ce chien unique), puis, dès qu’ils voient plusieurs chiens, ils élargissent la catégorie à tous les chiens. Ils utilisent également des aides naturelles : l’attention partagée, qui réduit l’espace de recherche en observant où porte le regard de l’adulte.
Ainsi, le cerveau humain se base sur des mécanismes logiques et abstraits pour apprendre vite et bien, même dès la petite enfance.
L’auteur montre comment un enfant, dès 2-3 ans, apprend un mot nouveau en un seul essai, mais échoue si la source est un haut-parleur sans intention. L’enfant use de métarègles (exclusivité, attention partagée, grammaire) pour déduire le sens. Il s’appuie sur un langage mental permettant d’inférer des principes abstraits.
Ainsi, l’explosion lexicale aboutit à dix ou vingt mots quotidiens, grâce à sa faculté de formuler et tester des hypothèses. Les réseaux de neurones n’approchent pas encore cette rapidité.
Apprendre, c’est raisonner en bon statisticien
Stanislas Dehaene explique que, pour sélectionner la meilleure hypothèse, le cerveau raisonne en bon statisticien, ajustant en permanence la probabilité de ses hypothèses face aux nouvelles observations.
Cette théorie, dite bayésienne, s’inspire du révérend Thomas Bayes (1701-1761) et du mathématicien Pierre-Simon de Laplace (1749-1827). Selon elle, le cerveau calcule des “a priori” (les hypothèses innées héritées de l’évolution), confronte ses prédictions descendantes aux données sensorielles, puis corrige constamment ses modèles en fonction du signal d’erreur. À chaque nouvelle expérience, l’incertitude diminue.
Ce mécanisme, combinant inné et acquis, permet de tirer un maximum d’informations de chaque événement. L’algorithme bayésien illustre le raisonnement scientifique, qui teste et réfute des théories jusqu’à atteindre un modèle plus adapté.
Cette vision dissout la frontière entre inné et appris : l’enfant, petit scientifique, élimine peu à peu les hypothèses erronées tout en consolidant celles qui résistent à l’épreuve des faits. Ainsi, il sélectionne la meilleure hypothèse probable.

Deuxième partie — Comment notre cerveau apprend
Chapitre 3 — Le savoir invisible : les étonnantes intuitions des bébés
Contrairement à l’opinion de grands philosophes et scientifiques comme Locke, Rousseau et Turing, le cerveau du nouveau-né n’est pas une « ardoise vierge » en attente de contenus.
Les découvertes récentes des sciences cognitives révèlent qu’il possède déjà un vaste savoir évolutif. Objets, nombres, probabilités, visages et langage : le bébé humain recèle une base de connaissance impressionnante !
Le concept d’objet
Les bébés naissent avec un savoir déjà riche. Dès quelques mois, ils comprennent que le monde est composé d’objets solides et cohérents. Lorsqu’une expérience viole ces principes (objet qui disparaît, qui traverse une barrière…), ils manifestent leur surprise en regardant plus longtemps.
Ils testent aussi la gravité, en faisant tomber leur cuillère pour voir si elle se soutient d’elle-même. Avec chaque expérience, le bébé écarte des hypothèses erronées et consolide sa théorie du monde physique.
Même adulte, nous restons fascinés par les illusions magiques qui défient notre intuition sur les objets. Selon Josh Tenenbaum, le bébé simule mentalement ces lois physiques.
Le sens du nombre
Les travaux récents montrent que le bébé, dès ses premiers mois, perçoit déjà le nombre d’objets, reconnaît leurs propriétés et s’étonne lorsqu’une addition ou une soustraction ne correspond pas au résultat attendu.
Cette capacité ne dépend pas seulement de l’observation : de nombreux animaux, dont les poussins élevés sans stimulation visuelle, partagent cette intuition numérique. Ainsi, loin de l’idée de « table rase », un nouveau-né dispose déjà de principes d’objet et de nombre, enrichis progressivement par l’apprentissage.
L’intuition des probabilités
Les bébés perçoivent la probabilité : plus un événement est improbable, plus ils s’étonnent. Des expériences prouvent qu’ils évaluent la composition d’une urne pour estimer la probabilité d’un tirage.
Mieux encore, ils infèrent les causes : si un individu tire surtout des boules rouges alors que l’urne en contient majoritairement des jaunes, l’enfant suppose qu’il préfère le rouge. Ainsi, dès quelques mois, le bébé manipule les probabilités, raisonne en scientifique et applique une logique bayésienne.
La connaissance des animaux et des personnes
Dès sa première année, le bébé distingue les objets animés (animaux, personnes) des objets inanimés. Il note que les êtres vivants se meuvent seuls, guidés par des intentions. Il infère des buts, des croyances, attribue des intentions malveillantes ou bienveillantes. Avant de parler, il saisit déjà la pédagogie et les motivations d’autrui.
La perception des visages
La sensibilité aux visages émerge dès la naissance. Les bébés, voire même les fœtus, préfèrent déjà une configuration évoquant deux yeux et une bouche. Un biais pour les visages oriente leur attention et facilite l’apprentissage social. Dès quelques mois, une région corticale spécialisée commence à répondre préférentiellement à ce stimulus.
Le don des langues
Les bébés naissent avec une « antenne » pour les visages et le langage. Avant même de parler, ils préfèrent leur langue maternelle, entendue in utero. Leur cerveau détecte rapidement les sons pertinents et écarte ceux qui ne servent pas. Il repère les frontières probables des mots (biberon, maman…), en se fiant à leur fréquence et à la prosodie (le rythme et les sons de la langue).
Ce talent dépasse n’importe quel algorithme actuel : en quelques mois, l’enfant acquiert un répertoire de sons, de mots fréquents et même quelques règles de grammaire élémentaires. Aucune autre espèce n’égale cette compétence, qui témoigne d’un instinct unique d’apprendre le langage.
Chapitre 4 — Naissance d’un cerveau
Nous le comprenons maintenant, le cerveau des bébés ne peut être une simple « ardoise vierge » en attente d’impressions de l’environnement. Des structures cérébrales sont déjà présentes et donnent aux tout petits des compétences. Le développement de l’imagerie cérébrale nous aide considérablement dans cette compréhension.
Le cerveau du bébé, déjà bien structuré
Grâce à l’IRM fonctionnelle pratiquée sur des bébés de 2 mois, Stanislas Dehaene et son équipe montrent que le langage active chez eux les mêmes régions que chez l’adulte.
Les aires auditives s’allument immédiatement, puis l’activation progresse le long d’un circuit hiérarchique jusqu’à l’aire de Broca à gauche, spécialisée dans la syntaxe. Bien qu’un bébé ne comprenne pas encore les phrases, ses circuits cérébraux s’organisent déjà pour traiter l’information linguistique de façon semblable à un adulte.
Les autoroutes du langage
Les connexions cérébrales se forment durant le troisième trimestre de grossesse, quand les neurones explorent leur environnement chimique pour trouver leurs cibles. Ainsi, le faisceau arqué, essentiel au langage, se développe déjà avant la naissance et présente une asymétrie gauche-droite propre à notre espèce.
Cet échafaudage inné est ensuite affiné par l’apprentissage. Les techniques d’imagerie prouvent que le cerveau n’est pas un amas aléatoire : l’ADN renferme le plan de ses faisceaux et de ses aires spécialisées. Avant même la naissance, des gènes s’expriment sélectivement, façonnent les plis corticaux et l’asymétrie caractéristique de la région temporale dédiée au langage.
L’auto-organisation du cortex
Dès le troisième trimestre de grossesse, des circuits cérébraux spécialisés émergent spontanément, guidés par des processus d’auto-organisation et les molécules chimiques de l’environnement intra-utérin.
Des faisceaux de fibres innés interconnectent déjà régions sensorielles et modules cognitifs. Le cortex se plisse, générant des territoires distincts (aires visuelles, auditives, langage, etc.), chacun projetant sur le monde un type de représentations : cartes hexagonales pour la navigation, lignes pour les quantités, arbres pour la syntaxe.
Cette organisation ne dépend pas de millions de données : elle s’installe en interne, prête à être affinée après la naissance. L’enfant naît ainsi équipé d’un riche « kit » neuronal, hérité de l’évolution, pour apprendre.
Chapitre 5 — La part de l’acquis
Certes, nous voyons désormais qu’il y a de l’inné dans le cerveau du bébé. Pour autant, « cette organisation précoce ne reste pas inchangée : elle se modifie et s’enrichit avec l’expérience », affirme Stanislas Dehaene. Voyons maintenant comment !

Qu’est-ce que la plasticité cérébrale ?
Santiago Ramón y Cajal, célèbre scientifique espagnol, découvre que le cerveau est constitué de neurones disjoints, reliés par des synapses où l’influx électrique devient un signal chimique, puis redevient électrique. Donald Hebb formule ensuite la règle « neurons that fire together wire together » (les neurones qui s’activent ensemble se connectent ensemble), montrant comment la co-activation renforce les connexions.
Ainsi, la plasticité synaptique stabilise les circuits, modulée par des neurotransmetteurs (dopamine, acétylcholine) marquant les événements saillants. Des travaux sur la limace Aplysia, puis sur la souris, prouvent que ces changements synaptiques sont indispensables à la mémoire : en interférant avec eux juste après un apprentissage, on empêche sa consolidation, ce qui démontre leur rôle causal.
Le portrait d’un souvenir
La mémoire résulte de la configuration d’ »assemblées neuronales » spécifiques, activées pendant un événement. Après coup, les synapses se modifient, et ces changements constituent l’encodage. Au rappel, un simple indice réactive la même configuration. L’hippocampe enregistre des épisodes précis (mémoire épisodique) et crée sans cesse de nouvelles représentations.
Ensuite, ces souvenirs se déplacent vers le cortex, deviennent généraux et s’intègrent à la mémoire sémantique. La mémoire à court terme (ou de travail) maintient une information active brièvement, grâce aux décharges répétées de neurones. La mémoire procédurale, fondée sur la répétition, permet d’exécuter des tâches de façon automatique et inconsciente, sans passer par l’hippocampe.
Vraies synapses et faux souvenirs
Les recherches récentes montrent à quel point la mémoire repose sur la plasticité cérébrale. Chez la souris, des expériences menées par Susumu Tonegawa prouvent que l’on peut transférer un souvenir aversif d’une pièce à une autre, transformer un mauvais souvenir en bon ou même l’effacer, simplement en modulant l’activité synaptique lors de sa réactivation.
Karim Benchenane a, lui, réussi à créer un faux souvenir : pendant le sommeil de la souris, il a associé la réactivation de certains neurones de l’hippocampe à un signal de récompense (dopamine), incitant l’animal à rechercher à l’endroit concerné une fois réveillé.
D’autres études montrent comment l’apprentissage d’une nouvelle compétence (par exemple, manier un râteau chez le singe) provoque une cascade de changements : renforcement de synapses, poussée de dendrites, extension d’axones et augmentation de l’épaisseur du cortex.
Toutefois, la synapse n’explique pas tout : certains phénomènes, notamment dans le cervelet, semblent reposer sur des mécanismes internes aux cellules. La compréhension complète du passage de la plasticité neuronale aux règles symboliques demeure donc un défi ouvert.
La nutrition, élément clé de l’apprentissage
En 2003, un scandale révèle qu’une centaine de bébés israéliens souffrent d’un grave déficit en vitamine B1 (thiamine), car un lait en poudre qu’ils avaient consommé en était dépourvu. Résultat : troubles neurologiques aigus (léthargie, vomissements, coma), puis déficit durable du langage.
Pourtant, leurs autres fonctions cognitives restent préservées. Cet épisode dramatique illustre combien le cerveau en développement, bien que très plastique, demeure vulnérable. Quelques semaines de privation peuvent causer un dommage permanent dans un domaine précis, comme la grammaire.
Pouvoirs et limites de la plasticité synaptique
La plasticité cérébrale reste puissamment encadrée par des facteurs génétiques. Même lorsqu’un hémisphère est perdu, le cerveau n’opère qu’un réagencement partiel, comme chez Nico (voir l’introduction), dont l’hémisphère gauche a adopté certaines fonctions normalement gérées par l’hémisphère droit, mais sans réorganiser totalement ses cartes visuelles.
L’expérience du furet, qui convertit des aires auditives en aires visuelles, illustre une situation pathologique : la réorientation n’est pas toujours parfaite ! Le cerveau possède un canevas inné, tracé par des gènes et une activité spontanée en gestation. Après la naissance, l’apprentissage affine ce modèle préexistant. Le résultat final, fruit d’un compromis, reflète une plasticité réelle mais limitée.
Qu’est-ce qu’une période sensible ?
Pour le bébé humain, la plasticité cérébrale, énorme dans la petite enfance, se manifeste par des vagues de surproduction synaptique et de myélinisation dans chaque région du cortex. Les circuits sensoriels (visuels, auditifs) atteignent vite leur maturité, fixant ainsi certaines périodes sensibles, comme la fusion binoculaire ou la discrimination phonétique, qui se referment vers 3 ans pour la vision stéréoscopique et 1 an pour la phonologie.
Un enfant privé de stimulation, sourd ou mal nourri durant cette période, peut souffrir de déficits persistants, comme l’ont montré les enfants israéliens privés de thiamine : quelques semaines suffisent à endommager définitivement leur syntaxe. Les enfants sourds non appareillés tôt perdent la maîtrise de la grammaire.
Après la puberté, l’apprentissage d’une langue étrangère décline et limite la maîtrise des sons et de la syntaxe. Pourtant, ne perdons pas espoir : vocabulaire et aspects sémantiques demeurent ouverts à tout âge !
Il faut qu’une synapse soit ouverte ou fermée
La plasticité cérébrale offre d’immenses possibilités d’adaptation, mais s’exerce dans des limites spatio-temporelles strictes. Dès la naissance, les circuits de base sont présents et de vastes vagues de surproduction synaptique puis d’élagage s’organisent en périodes sensibles.
Une fois ces fenêtres refermées, l’apprentissage se complique. Cependant, certaines capacités subsistent, notamment pour la sémantique ou les connaissances générales.
L’exemple marquant des orphelins de Bucarest illustre cette dynamique : de nombreux enfants privés de tout lien affectif et social présentaient de graves retards cognitifs et des altérations cérébrales. Pourtant, un placement en famille d’accueil avant 20 mois produisait une nette amélioration, voire un retour à la quasi-normale de plusieurs marqueurs d’attention et de fonctionnement cérébral. Les enfants placés plus tard demeuraient, en revanche, lourdement affectés.
Ainsi, la plasticité cérébrale offre d’importants moyens de résilience, à condition que l’intervention survienne suffisamment tôt.
Chapitre 6 — Recyclez votre cerveau
Faisons le point !
Les bébés naissent avec un savoir inné (objets, nombres, etc.). L’éducation prolonge ces intuitions. Elle modifie fortement le cerveau par la plasticité synaptique. La lecture, l’écriture et les mathématiques s’appuient sur ces circuits.
Sans scolarisation, l’être humain reste limité à des approximations. La formation scolaire raffine et amplifie ses compétences.
L’hypothèse du recyclage neuronal
La plasticité cérébrale, bien que contrainte par la structure innée du cortex, permet l’acquisition de compétences culturelles inédites. L’hypothèse du « recyclage neuronal » décrit comment chaque nouvel apprentissage (lecture, calcul…) se greffe sur un circuit préexistant dont la dynamique ne peut s’écarter de certaines dimensions.
Ainsi, un singe peut apprendre à déplacer un curseur par la pensée, mais seulement si l’activité requise reste compatible avec ses configurations neuronales habituelles. Chaque région cérébrale projette sur le monde un « espace d’hypothèses » (ligne, plan, arbre…) ; l’apprentissage y gagne en efficacité lorsqu’il exploite ces structures innées.
Les cellules de grille du cortex entorhinal (zone du cerveau importante pour la mémorisation et l’olfaction, notamment) favorisent, par exemple, la navigation spatiale ou la représentation de données en deux dimensions.
De même, le cortex pariétal (une autre zone du cerveau), est prédisposé à un axe « du moins au plus » et se spécialise dans la numération. Ainsi, la plasticité permet le recyclage de modules préexistants, tout en demeurant confinée aux limites spatiales et dynamiques de ces circuits neuronaux.
Les mathématiques recyclent les circuits du nombre
Les mathématiques scolaires s’appuient sur un sens inné des quantités, déjà présent chez les bébés et partagé avec d’autres animaux. Loin d’inscrire un savoir dans une « cire vierge », l’éducation recycle plutôt ce circuit neuronal de représentation approximative des nombres.
Dès que nous apprenons à compter et à manipuler les chiffres, des neurones, initialement sensibles à des quantités floues, se spécialisent pour reconnaître et traiter les symboles (5, 12, etc.). Les opérations arithmétiques (addition, soustraction) mobilisent également d’autres circuits cérébraux, notamment ceux qui gèrent le déplacement de l’attention sur une « ligne mentale » des nombres.
Même à un niveau avancé, comme chez les mathématiciens professionnels, ce sont les mêmes réseaux neuronaux, dans les lobes pariétaux et frontaux, qui restent activés. De plus, ce sens numérique n’est pas seul en jeu : nous héritons aussi de circuits innés du temps, de l’espace ou des formes, eux-mêmes remaniés par l’éducation pour forger de nouveaux concepts mathématiques.
La lecture recycle les circuits de la vision et du langage parlé
L’apprentissage de la lecture illustre parfaitement le principe de recyclage neuronal. Avant même d’apprendre, l’enfant dispose d’un puissant système visuel pour reconnaître visages, objets et lieux.
Avec l’alphabétisation, une partie de ce circuit se réoriente pour traiter les lettres et les mots : c’est l’« aire de la forme visuelle des mots », située dans le cortex occipito-temporal gauche. Grâce à des connexions directes vers les aires du langage, elle convertit les signaux visuels en sons et en sens.
Cette occupation neuronale se fait souvent aux dépens d’autres fonctions : chez un enfant qui apprend à lire, on observe une diminution de l’activation dédiée aux visages dans l’hémisphère gauche. Les visages se « refugient » alors dans l’hémisphère droit.
À l’âge adulte, la plasticité s’estompe : un analphabète qui tente de lire peine à se constituer une nouvelle « boîte aux lettres », et progresse très lentement. L’effet majeur s’opère donc dans l’enfance, période cruciale où le cortex visuel reste encore modifiable et peut aisément se reconfigurer pour la lecture.
Partitions, équations et visages
Les nouveaux apprentissages, qu’il s’agisse de lecture, de musique ou de mathématiques, se fraient un chemin dans le cortex visuel et concurrencent la représentation des visages. Chez les musiciens, la lecture de partitions déplace l’aire des mots ; chez les mathématiciens, l’invasion des équations réduit l’espace disponible pour la reconnaissance faciale, parfois dans les deux hémisphères.
Reste à déterminer la causalité : être moins sociable conduit-il à plonger dans les chiffres, ou bien l’immersion totale dans les formules affaiblit-elle la perception des visages ?
Les bénéfices d’un environnement enrichi
Le cerveau de l’enfant est structuré et plastique. Dès la naissance, il possède des circuits spécialisés (objets, espace, nombres, langage) et surproduit des synapses pour s’adapter. Les premières interactions (lecture, jeux…) façonnent durablement son organisation neuronale. L’école mise sur cette flexibilité pour l’apprentissage.
Parents et enseignants doivent sans relâche enrichir l’environnement de l’enfant. Plus l’intervention commence tôt, plus fort sera l’impact sur son avenir cognitif, car son cerveau enregistre alors plus aisément chaque expérience.

Troisième partie — Les quatre piliers de l’apprentissage
Chapitre 7 — L’attention
L’attention, essentielle pour sélectionner et amplifier les informations pertinentes, résout le problème de la saturation sensorielle du cerveau en hiérarchisant les stimuli. Ce processus, crucial pour l’apprentissage, active les neurones sensoriels et renforce les synapses grâce à une potentialisation à long terme.
L’attention est divisée en trois systèmes :
- L’alerte (vigilance) ;
- L’orientation (cibler l’intérêt) ;
- Le contrôle exécutif (gérer les traitements cognitifs).
En intelligence artificielle, intégrer l’attention améliore l’efficacité des réseaux neuronaux, comme en traduction ou reconnaissance d’images. En éducation, capter et canaliser l’attention des élèves est primordial pour favoriser un apprentissage optimal et durable.
Alerte : l’éveil du cerveau
Le système d’alerte mobilise l’attention en libérant des neuromodulateurs (dopamine, sérotonine, acétylcholine) qui amplifient la plasticité cérébrale, même chez l’adulte. Ces mécanismes, déclenchés par des émotions fortes ou des stimuli marquants, favorisent l’apprentissage en modifiant durablement les cartes neuronales.
Les jeux vidéo d’action exploitent ces circuits, améliorant concentration et prise de décision rapide. De même, enseignants captivants, livres ou films immersifs peuvent stimuler l’éveil neuronal, ouvrant de nouvelles perspectives pour l’éducation et la plasticité cérébrale.
Orientation : le filtre du cerveau
Le deuxième système attentionnel, orienté sur quoi observer, amplifie les informations pertinentes et supprime les distractions. L’attention sélective filtre les stimuli, comme illustré par l’expérience célèbre du « gorille invisible » : focaliser sur une tâche rend aveugle à d’autres signaux.
L’apprentissage dépend de cette orientation : par exemple, en lecture, diriger l’attention sur les lettres active les circuits appropriés de l’hémisphère gauche, tandis qu’une attention globale vers les mots bloque l’apprentissage. Enseigner efficacement implique de guider précisément l’attention des élèves, car seules les informations ciblées sont profondément intégrées dans le cerveau, garantissant un apprentissage optimal.
Contrôle exécutif : l’aiguilleur du cerveau
Le troisième système attentionnel, ou contrôle exécutif, supervise le traitement des informations sélectionnées. Situé dans le cortex préfrontal, il agit comme un aiguilleur, organisant les opérations mentales en série. Il gère la mémoire de travail, surveille l’exécution des tâches et corrige les erreurs.
Cependant, ce système est limité : il ne peut traiter qu’une tâche à la fois. Les distractions ralentissent ou empêchent l’apprentissage, car elles perturbent le flux d’informations dans l’espace de travail neuronal.
Apprendre à se concentrer et à prioriser une seule tâche est donc essentiel pour maximiser l’efficacité cognitive et les performances intellectuelles.
Apprendre à faire attention
Le contrôle exécutif, lié à la concentration et au contrôle de soi, se développe lentement pendant l’enfance et l’adolescence grâce à la maturation du cortex préfrontal. Il aide à éviter les erreurs en inhibant les distractions et en privilégiant les stratégies adaptées.
Des activités pratiques, comme la méthode Montessori, la pratique musicale ou les jeux vidéo éducatifs, renforcent ces capacités. L’entraînement du contrôle exécutif améliore aussi l’intelligence fluide, favorisant la concentration et la résolution de problèmes.
Les interventions éducatives précoces, notamment sur la mémoire de travail et les concepts fondamentaux comme la « ligne numérique », renforcent significativement les résultats scolaires, surtout pour les enfants défavorisés.
Ces programmes multidimensionnels stimulent les compétences cognitives de base, avec des bénéfices durables. D’où l’importance de diversifier les apprentissages dès le plus jeune âge pour optimiser l’impact sur la réussite scolaire et la vie future.
Je fais attention si tu fais attention
Chez l’humain, l’attention est fortement influencée par les signaux sociaux, notamment le contact visuel et verbal. Dès leur plus jeune âge, les enfants suivent les regards et gestes des adultes pour apprendre efficacement.
Les interactions humaines, comme le regard ou le geste de pointer, signalent à l’enfant l’importance et le caractère général des informations. Ce « module pédagogique » unique soutient l’apprentissage culturel et collectif, amplifiant les capacités de transmission des connaissances et l’évolution de la culture humaine.

Enseigner, c’est faire attention à l’attention de l’autre
L’enseignement humain est unique, car il repose sur la capacité de comprendre et de s’adapter aux pensées des autres. Contrairement aux mangoustes, qui suivent des comportements précâblés, les humains établissent des relations pédagogiques basées sur l’attention, la confiance et l’adaptation aux besoins de l’élève.
Cependant, cette capacité à apprendre socialement rend également les humains vulnérables aux influences, telles que les fake news ou les croyances infondées.
L’éducation doit donc équilibrer deux modes :
- Un apprentissage critique, actif et scientifique ;
- Un apprentissage réceptif, basé sur la transmission culturelle, pour former des esprits autonomes et éclairés.
🤓 Sur les fake news et autres dérives des systèmes d’informations, vous pouvez lire : Information, l’indigestion !
Chapitre 8 — L’engagement actif
L’exploration active est essentielle au développement visuel. Un chaton actif développe une vision normale en contrôlant ses mouvements, tandis qu’un chaton passif, soumis aux mêmes stimulations sans contrôle, souffre de déficits visuels majeurs, comme l’incapacité à percevoir correctement l’espace ou à éviter les dangers.
C’est la célèbre expérience du manège développée par Richard Held et Alan Hein en 1963.
Un organisme passif n’apprend pas
L’engagement actif est essentiel pour apprendre efficacement : il implique attention, réflexion et génération de modèles mentaux. Contrairement à la passivité, l’apprentissage actif repose sur une motivation claire et une adhésion au but.
Ce processus, principalement mental, nécessite concentration et reformulation des faits. Les apprentissages passifs ou implicites restent limités aux niveaux sensoriels. Sans effort ni réflexion, les leçons n’impriment aucune trace durable dans le cerveau.
Approfondir pour mieux apprendre
L’apprentissage actif, basé sur un traitement en profondeur, améliore la mémoire et la compréhension. Des études montrent que manipuler, expérimenter et réfléchir par soi-même favorisent une meilleure rétention que l’écoute passive.
L’engagement actif stimule le cortex préfrontal et l’hippocampe, ce qui améliore les souvenirs. Les méthodes interactives augmentent la réussite et réduit l’échec grâce à des méthodes interactives comme les discussions, les activités pratiques et les questions stimulantes.
L’échec des pédagogies de la découverte
L’engagement actif est crucial pour l’apprentissage, mais il ne doit pas être confondu avec le constructivisme ou les pédagogies de la découverte. Ces approches, basées sur l’idée que l’enfant peut apprendre seul en explorant, se révèlent inefficaces.
La recherche montre que, sans guidance explicite, les enfants ont du mal à découvrir des concepts complexes en lecture, mathématiques ou informatique. Un apprentissage efficace nécessite une pédagogie structurée, guidée et progressive, où l’élève est actif tout en bénéficiant d’un soutien clair de l’enseignant.
À l’inverse, les pédagogies Montessori modernes intègrent ces principes en combinant engagement, plaisir, autonomie et guidance explicite.
Par ailleurs, deux idées fausses persistent :
- Les enfants d’aujourd’hui, souvent perçus comme des « digital natives », ne maîtrisent pas aussi bien la technologie qu’on le pense ;
- L’idée des « styles d’apprentissage » adaptés à chaque élève est un mythe sans fondement scientifique. L’apprentissage repose avant tout sur des stratégies universelles, efficaces pour tous.
Savoir piquer la curiosité
La curiosité, moteur inné de l’apprentissage, est une force biologique essentielle, comparable à la faim ou la soif. Elle pousse à explorer pour acquérir des informations vitales à la survie. Chez l’homme, la curiosité active le circuit de la dopamine, récompensant la quête de savoir, même pour des informations abstraites.
Cette curiosité épistémique, unique à notre espèce, alimente une soif de connaissances sans limite, allant des concepts mathématiques à la science. Les émotions comme le rire renforcent l’apprentissage en signalant la révision de croyances erronées. Satisfaire la curiosité améliore la mémoire et stimule l’apprentissage actif et engagé.
Vouloir savoir : le moteur de la motivation
La curiosité humaine, essentielle à l’apprentissage, repose sur un algorithme adaptatif détectant les lacunes entre le connu et l’inconnu. Ce processus oriente l’attention vers des défis nouveaux mais accessibles, évitant à la fois la monotonie et la complexité excessive.
La curiosité nécessite des facultés métacognitives, permettant à l’individu, dès le plus jeune âge, de reconnaître ses lacunes et de chercher activement des réponses, stimulant ainsi un apprentissage progressif et efficace.
Les trois façons dont l’école peut tuer la curiosité
La curiosité des enfants, intense entre 2 et 5 ans, peut diminuer à cause d’un manque de stimulation adaptée, de punitions ou d’une transmission pédagogique trop directive. Les élèves avancés perdent intérêt si l’école ne leur propose pas de défis, tandis que ceux en difficulté se découragent face à des échecs répétés.
Une organisation scolaire rigide ou un enseignement trop exhaustif peuvent également inhiber l’exploration active. La solution réside dans une pédagogie structurée mais engageante, récompensant la curiosité et tolérant l’erreur, tout en stimulant l’imagination des élèves pour maintenir leur motivation et leur envie d’apprendre.
Chapitre 9 — Le retour sur erreur
C’est devenu une évidence aujourd’hui, mais mieux vaut le rappeler encore et encore : moins nous avons peur de l’échec, et plus nous pouvons apprendre. L’apprentissage fonctionne par l’erreur ; c’est son principe même.
Comme disaient les Shadocks :
« Ce n’est qu’en essayant continuellement que l’on finit par réussir… En d’autres termes, plus ça rate et plus on a de chances que ça marche ! » (cité dans Apprendre !, Chapitre 9)
La phrase est sans doute un peu excessive, mais vous avez saisi l’idée !
La surprise, moteur de l’apprentissage
L’apprentissage repose sur la surprise, ou erreur de prédiction, qui ajuste les modèles internes du cerveau. Selon Robert Rescorla et Allan Wagner, le cerveau compare ses attentes aux stimuli reçus, corrige ses prédictions en fonction du décalage et améliore sa compréhension.
Cette théorie s’applique au conditionnement classique, où l’absence de surprise bloque l’apprentissage. Chez les bébés, les événements surprenants stimulent leur exploration et leur apprentissage, les poussant à ajuster leurs hypothèses.
Cette capacité, essentielle dès le plus jeune âge, souligne que l’apprentissage est actif et guidé par l’imprévisible.
Le cerveau fourmille de messages d’erreur
Les aires cérébrales émettent des signaux d’erreur lorsqu’une prédiction est contredite. Par exemple, une note inattendue dans une séquence musicale active les neurones du cortex auditif, tandis que des incohérences syntaxiques ou contextuelles génèrent des réponses spécifiques dans les aires du langage.
Ces mécanismes permettent au cerveau d’ajuster ses modèles internes et de focaliser sur l’imprévu. Le circuit de la dopamine, essentiel à la récompense, anticipe ces erreurs : il répond à la différence entre la récompense attendue et obtenue, déplaçant l’apprentissage vers des signaux prédictifs.
Cette capacité à détecter et corriger les erreurs est également fondamentale en intelligence artificielle, où des systèmes critiques prédisent et corrigent les actions d’autres réseaux.
Ne confondons pas erreur et sanction
Un apprentissage efficace nécessite un retour sur erreur précis et rapide, détaillant ce qu’il fallait faire pour réussir. Ce feedback, neutre et bienveillant, aide l’élève à progresser sans dramatiser l’échec. Les réussites sont souvent mieux intégrées que les erreurs.
Autrement dit, il est important de mettre l’accent sur un enseignement constructif et informatif, plutôt que punitif.

La note, piètre retour sur erreur
La note, souvent utilisée comme sanction, manque de précision et retarde ou inhibe l’apprentissage. Non accompagnée de feedback constructif, elle engendre stress, anxiété et démotivation, particulièrement en mathématiques.
💡 Dans son célèbre livre Changer d’état d’esprit, Carol Dweck oppose la « mentalité fixiste » à la « mentalité progressiste », et elle montre que croire en sa capacité de progrès favorise l’apprentissage.
Encourager les efforts, valoriser les progrès, et expliquer que l’erreur est essentielle au développement cérébral permettent de cultiver la motivation et d’améliorer la réussite scolaire.
Se tester pour mieux apprendre
Les tests réguliers sont essentiels pour maximiser l’apprentissage à long terme. Ils forcent l’engagement actif, révèlent les lacunes et fournissent un feedback explicite pour se corriger. Alternés avec l’étude, ils surpassent la simple révision, en favorisant une meilleure mémorisation.
Les flashcards et logiciels comme Duolingo exploitent ces principes pour un apprentissage efficace.
Une règle d’or : espacer les apprentissages
L’espacement des apprentissages est une stratégie prouvée par la recherche. Cette méthode optimise la mémorisation en alternant étude et révision à intervalles croissants. Elle surpasse l’apprentissage massif en une seule fois, en renforçant l’activité cérébrale et en évitant l’illusion de maîtrise.
Les révisions régulières prolongent la rétention en mémoire à long terme, en convainquant le cerveau de l’utilité des informations. Les manuels scolaires devraient intégrer des révisions espacées et variées. Même le surapprentissage, répétition au-delà de la maîtrise, améliore les performances grâce à l’automatisation.
Ces pratiques, alliées à un feedback précis, soutiennent durablement l’apprentissage et la consolidation des connaissances.
Chapitre 10 — La consolidation
La consolidation automatise l’apprentissage, transformant une activité consciente et séquentielle en un processus rapide et inconscient. Chez le jeune lecteur, la lecture lente et séquentielle devient fluide après des années de pratique. Cette routinisation libère les ressources cérébrales, permettant au cerveau de se concentrer sur d’autres tâches. Ainsi, la maîtrise s’accompagne de surapprentissage.
Libérer les ressources cérébrales
Chez un débutant, la lecture ou les calculs mobilisent intensément les régions pariétales et préfrontales, mais la pratique transfère ces tâches aux circuits spécialisés, comme les noyaux gris centraux. Une fois routinisées, ces compétences deviennent inconscientes. Cette automatisation est cruciale pour surmonter le goulot d’étranglement cognitif et progresser vers des tâches plus complexes.
Le rôle clé du sommeil
Le sommeil est essentiel à la consolidation de la mémoire. Des études montrent qu’il stabilise et améliore les apprentissages, empêchant l’oubli. Le sommeil profond renforce la mémoire déclarative, tandis que le sommeil paradoxal favorise les apprentissages moteurs et perceptifs.
Les recherches démontrent que la qualité et la durée du sommeil influencent directement les performances cognitives. Inversement, un apprentissage intense augmente le besoin de sommeil, soulignant son rôle crucial dans la plasticité cérébrale et l’intégration des connaissances.
Le cerveau endormi revit les épisodes de la veille
Le sommeil consolide les apprentissages en réactivant et répétant les expériences vécues pendant la journée. Des études montrent que l’hippocampe rejoue, souvent en accéléré, les séquences d’activités neuronales associées aux souvenirs. Ce processus s’étend au cortex, où les souvenirs sont transférés et renforcés dans des circuits spécialisés.
Des expériences ont démontré que la qualité du sommeil, notamment la profondeur des ondes lentes, prédit l’efficacité de la consolidation. Stimuler ces ondes par des sons ou des courants électriques améliore les performances d’apprentissage. Des indices sensoriels, comme des odeurs ou des sons, peuvent orienter cette réactivation.
Cependant, le cerveau endormi ne peut acquérir de nouvelles compétences, mais seulement renforcer celles déjà apprises pendant la veille. Ces découvertes ouvrent la voie à des outils pour optimiser la consolidation nocturne, mais nécessitent une base solide d’apprentissage actif durant la journée pour être efficaces.
À noter : réviser avant de dormir reste une stratégie bénéfique et éprouvée.
Peut-on faire des découvertes en dormant ?
Le sommeil dépasse la simple consolidation des apprentissages en favorisant la créativité et la découverte. Des chercheurs ont montré que, durant la nuit, le cerveau rejoue et recode des expériences sous forme de modèles abstraits, accélérant ainsi la compréhension et la synthèse d’informations.
Ces réactivations neuronales nocturnes permettent de révéler des régularités ou solutions qui échappaient à la veille. Les rêves, simulant des expériences inédites, augmentent les données disponibles pour l’apprentissage.
Ce mécanisme d’incubation cognitive, essentiel au raisonnement scientifique et aux innovations, pourrait expliquer l’efficacité du sommeil humain, qui serait l’un des plus performants parmi les primates.
🧐 Ce phénomène est-il lié à la sérendipité ? Qui sait !
Sommeil, enfance et école
Le sommeil, crucial pour les apprentissages, est plus efficace chez les enfants que chez les adultes. Les bébés consolident les mots appris et généralisent leurs significations après une sieste. À l’école, les siestes améliorent la mémorisation chez les jeunes enfants habitués à dormir.
Un manque de sommeil peut aggraver les troubles de l’attention et nuire aux apprentissages, mais améliorer la qualité du sommeil atténue ces difficultés. Chez les adolescents, décaler les horaires scolaires favorise leur sommeil, augmentant attention, performances et bien-être global.
Adapter l’éducation aux besoins biologiques des enfants est essentiel pour maximiser leur potentiel d’apprentissage.
Conclusion — Réconcilier l’éducation avec les neurosciences
Les découvertes des neurosciences et de la psychologie cognitive nous donnent une vision renouvelée de l’apprentissage. Le cerveau, loin d’être une ardoise vierge ou une simple éponge, est un organe actif qui génère des hypothèses, ajuste ses modèles grâce aux erreurs et amplifie ses acquis pendant le sommeil.
Contrairement aux idées reçues, l’apprentissage nécessite engagement, curiosité et confrontation au réel. Bien que les machines progressent en imitant le cerveau, elles restent loin de ses performances, notamment en abstraction, gestion probabiliste et curiosité.
Le cerveau humain demeure une machine d’apprentissage inégalée, capable de transformer l’expérience en connaissances profondes.
Treize maximes pour l’épanouissement des enfants
- Reconnaître les compétences innées des enfants : Dès la naissance, les enfants possèdent des noyaux de compétences, comme le sens des nombres ou la compréhension des personnes. L’éducation doit s’appuyer sur ces intuitions pour leur donner du sens.
- Exploiter les périodes sensibles : Les premières années de vie sont idéales pour certains apprentissages, notamment les langues. Exposer tôt les enfants à une seconde langue maximise leur plasticité cérébrale.
- Enrichir l’environnement des enfants : Offrir des jeux, des histoires, des défis et des échanges riches en vocabulaire stimule leur curiosité et leur apprentissage.
- Rejeter le mythe des styles d’apprentissage : Tous les enfants partagent des circuits cérébraux similaires pour la lecture, les mathématiques ou les langues. Les différences résident dans les rythmes et les préférences d’apprentissage.
- Optimiser l’attention : L’attention est la porte d’entrée des apprentissages. Éliminer les distractions inutiles et capter l’intérêt des élèves sont essentiels.
- Encourager l’engagement actif et la curiosité : Les élèves apprennent mieux en participant activement et en générant des hypothèses, guidés par une pédagogie structurée.
- Rendre l’école agréable : Associer les apprentissages à des moments de plaisir et valoriser chaque effort renforce la motivation des enfants.
- Valoriser les efforts : Expliquer aux enfants que tous peuvent progresser par l’effort et que cela aide à développer une mentalité progressiste, favorable à l’apprentissage.
- Proposer des apprentissages approfondis : Encourager une réflexion approfondie et des défis cognitifs difficiles améliore la rétention des connaissances.
- Fixer des objectifs clairs : Les élèves apprennent mieux quand les objectifs d’apprentissage sont explicites et qu’ils constatent les progrès vers ces buts.
- Accepter et corriger les erreurs : L’erreur est une partie essentielle de l’apprentissage. Fournir des retours précis et bienveillants aide à progresser.
- Réviser régulièrement et espacer les apprentissages : L’apprentissage quotidien et les révisions espacées renforcent la mémoire et consolident les compétences.
- Favoriser un sommeil de qualité : Le sommeil, essentiel à l’apprentissage, consolide les acquis et permet au cerveau de fonctionner efficacement. Adapter les horaires scolaires aux besoins biologiques des enfants améliore attention et performances.
Une alliance pour l’école de demain
Stanislas Dehaene appelle à unir enseignants, parents et scientifiques pour créer une école harmonisée avec les sciences cognitives.
- Les enseignants, souvent mal formés, devraient bénéficier de programmes enrichis intégrant les sciences de l’apprentissage, sans restreindre leur liberté pédagogique.
- Les parents, premiers éducateurs, doivent être formés pour prolonger les apprentissages à la maison.
- Les scientifiques, quant à eux, doivent intensifier la recherche en éducation, en collaboration avec les enseignants, pour concevoir et tester des approches innovantes.
Cette alliance vise à ressusciter la curiosité et le plaisir d’apprendre chez les enfants. Pour l’auteur, cette démarche est cruciale dans un système éducatif — et une société — en pleine mutation.

Conclusion sur « Apprendre ! Les talents du cerveau, le défi des machines » de Stanislas Dehaene :
Ce qu’il faut retenir de « Apprendre ! Les talents du cerveau, le défi des machines » de Stanislas Dehaene :
Stanislas Dehaene est professeur de neurosciences au prestigieux Collège de France et chercheur renommé. Il poursuit depuis de nombreuses années un travail de vulgarisation qui l’a amené à s’interroger sur les rapports entre sa discipline et l’éducation.
Après avoir écrit sur les maths (La bosse des maths) et la lecture notamment (Apprendre à lire), il s’intéresse ici à l’apprentissage dans son ensemble, en comparant l’apprentissage des machines (IA) et l’apprentissage humain.
Pour l’auteur, il est crucial que l’éducation marche dans la main avec le progrès des neurosciences. C’est ce qu’il cherche à montrer en exposant la grande diversité des études qui existent à ce jour et en donnant de nombreux conseils pour améliorer l’apprentissage au quotidien.
Un livre à mettre entre toutes les mains des parents et des éducateurs curieux !
Points forts :
- Des conseils très clairs et bien documentés ;
- Une plongée dans les neurosciences, la psychologie cognitive et les sciences de l’éducation ;
- Une écriture rigoureuse, mais un style néanmoins très clair qui aide à vulgariser certains sujets complexes ;
- De très nombreuses références, certaines plus anciennes et d’autres très actuelles.
Point faible :
- Je n’en ai pas trouvé.
Ma note :
★★★★★
Avez-vous lu le livre de Stanislas Dehaene « Apprendre ! » ? Combien le notez-vous ?
(1 votes, moyenne: 2,00 out of 5)
Loading...
Visitez Amazon afin de lire plus de commentaires sur le livre de Stanislas Dehaene « Apprendre ! ».
Visitez Amazon afin d’acheter le livre de Stanislas Dehaene « Apprendre ! ».