Bienvenue sur Des Livres Pour Changer de Vie ! Si vous êtes nouveau ici, vous voudrez sans doute recevoir mon livre "Vivre la vie de vos rêves avec votre blog" : cliquez ici pour recevoir le livre gratuitement ! 🙂
Bienvenue à nouveau sur Des Livres Pour Changer de Vie ! Comme ce n'est pas la 1ère fois que vous venez ici, vous voudrez sans doute recevoir mon livre "Vivre la vie de vos rêves avec votre blog" : cliquez ici pour recevoir le livre gratuitement ! 🙂
Résumé de « Quand la machine apprend : la révolution des neurones artificiels et de l’apprentissage profond » de Yann Le Cun : l’expert en intelligence artificielle français a séduit la Silicon Valley en contribuant de façon essentielle au développement du machine learning et du deep learning — il partage ici le récit de cette fascinante histoire !
Par Yann Le Cun, 2019, 394 pages.
Chronique et résumé de « Quand la machine apprend : la révolution des neurones artificiels et de l’apprentissage profond » de Yann Le Cun
Qui est Yann Le Cun ?
Yann Le Cun est un expert en intelligence artificielle. Récipiendaire du prestigieux prix Turing, il enseigne à l’université de New York. Il a été l’un des grands initiateurs de l’apprentissage machine et en particulier de l’apprentissage profond lié à la reconnaissance d’images.
Ses travaux ont fait de lui l’un des spécialistes les plus reconnus du domaine et l’ont amené à exercer des fonctions importantes pour la compagnie Facebook.
Dans ce livre de vulgarisation, comme vous allez le voir, Yann Le Cun revient en détail sur son parcours biographique, tout en expliquant sa démarche scientifique. Rien ne sert donc d’en dire trop ici. Lisez la suite !
NB. Si les principaux chapitres ont été conservés tels quels, l’intérieur de chaque chapitre a été résumé et certaines sections ont été fusionnées ou supprimées pour faciliter la compréhension d’ensemble ;).
Chapitre 1 — La révolution de l’IA
« Beaucoup d’observateurs ne parlent plus d’une évolution technologique, mais d’une révolution. »
(Quand la machine apprend, Chapitre 1)
Et si nous étions au début d’une nouvelle ère technologique ? Sans aucun doute, l’IA est d’ores et déjà omniprésente dans notre quotidien, depuis les logiciels de reconnaissance vocale jusqu’aux logiciels de création d’images, nous avons pris l’habitude de rencontrer l’intelligence artificielle dans notre vie de tous les jours.
Mais ce monde de l’IA n’en est qu’à ses débuts. En fait, « ses limites sans sans cesse repoussées », dit avec enthousiasme Yann Le Cun. De la good old fashioned IA (GOFAI), nous sommes passés à de nouvelles manières de construire et de penser l’intelligence des machines et leur apprentissage.
C’est notamment le passage de ces GOFAI au machine learning, puis au deep learning, dont l’auteur est justement l’un des chefs de file et des pionniers, utilisant des techniques telles que la régression et l’exploitation de jeux de données complexes pour entraîner un réseau de neurones artificiels.
Essai de définition
« Je dirais que l’intelligence artificielle est la capacité, pour une machine, d’accomplir des tâches généralement assumées par les animaux et les humains : percevoir, raisonner et agir. Elle est inséparable de la capacité à apprendre, telle qu’on l’observe chez les êtres vivants. Les systèmes d’intelligence artificielle ne sont que des circuits électroniques et des programmes informatiques très sophistiqués. Mais les capacités de stockage et d’accès mémoire, la vitesse de calcul et les capacités d’apprentissage leur permettent d' »abstraire » les informations contenues dans des quantités énormes de données. »
(Quand la machine apprend, Chapitre 1)
Yann Le Cun est ambitieux et croit en l’innovation qui l’a fait connaître : le deep learning — et en particulier ces réseaux de neurones artificiels convolutifs dont nous reparlerons dans la suite de cette chronique. C’est un outil très puissant, mais qui demeure encore limité, car très spécialisé.
Un algorithme est une « séquence d’instructions », une « recette de cuisine » de mathématiciens, rien de plus. Facebook et Google, par exemple, n’en ont pas qu’un (supposé omnipotent ou presque), mais plutôt une « collection », chacun travaillant à une tâche précise.
Commençons par dire un mot du développement de l’IA depuis le milieu du XXe siècle, tout en faisant davantage connaissance avec l’auteur.
Chapitre 2 — Brève histoire de l’IA… et de ma carrière
L’éternelle quête et les premiers sursauts de l’IA
La volonté de donner la vie à des automates n’est pas neuve. Que vous pensiez aux projets du docteur Frankenstein ou à d’autres ouvrages de science-fiction (et même à des mythes anciens), cette idée est présente en l’homme. Faire émerger la vie et la pensée de ses propres mains : voilà l’idée de base.
Mais c’est autour des années 1950, et aux États-Unis, que s’initient les premières grandes manœuvres qui aboutiront à la création du champ d’études nommé « intelligence artificielle.
L’auteur reprend à son compte la notion d' »hiver » de l’IA. Tout se passe en effet en plusieurs étapes. Les premiers engouements des années 1950 et 1960 sont freinés à partir des années 1970. Les institutions états-uniennes et occidentales coupent les fonds à leurs chercheurs.
Les chercheurs de cette époque travaillaient sur des techniques comme la régression, en essayant de créer des modèles pour mieux comprendre et prédire les comportements des machines. Mais ces avancées étaient encore limitées, et les jeux de données nécessaires à ces calculs n’étaient pas aussi vastes qu’aujourd’hui.
✅ À noter : pour compléter ce teaser et avoir un aperçu plus général de cette histoire, vous pouvez lire, par exemple, la chronique de L’intelligence artificielle pour les nuls.
Entrée en scène
Penchons-nous plus attentivement sur l’histoire de Yann Le Cun. Il commence à faire ses études dans une école d’ingénieur en électronique à Paris en 1978. En passionné, il lit beaucoup et croise les disciplines. Depuis la linguistique jusqu’à la cybernétique, en passant bien sûr par les mathématiques et l’informatique, tout ce qui se rapproche de l’IA l’intéresse.
Il est encore étudiant à l’IESIEE (son école d’ingénieurs) lorsqu’il a sa première intuition d’algorithme d’apprentissage qui donnera, des années plus tard, les algorithmes dits de « rétropropagation du gradient ».
Entré en doctorat en 1984, il travaille beaucoup avec une maîtresse de conférence nommée Françoise Soulié-Fogelman. Grâce à cette collaboration, il va pouvoir réaliser un stage d’un mois en Californie au sein du laboratoire Xerox PARC.
Mais c’est en 1985 que sa vie professionnelle « bascule », lors d’un symposium aux Houches (Alpes françaises). Yann Le Cun y tisse des liens qui le mèneront à travailler au Bell Lab trois ans plus tard. Durant cette année, il dévoile à ses pairs ses recherches. Ceux-ci sont impressionnés.
Durant la seconde moitié des années 1980 (pourtant qualifiées d’hiver de l’IA), Yann Le Cun va patiemment contribuer à l’émergence du champ d’études dit « connexionniste » en IA. Il utilise notamment des réseaux de neurones artificiels pour résoudre des problèmes complexes d’apprentissage automatique.
Il termine son doctorat en 1987 et rejoint Geoff Hinton (grand spécialiste et co-inventeur de la « rétropropagation », qui recevra plus tard le prix Turing avec Yann Le Cun) à l’université de Toronto, où ils commenceront à travailler sur des jeux de données de plus en plus vastes, facilitant ainsi la recherche en régression et d’autres formes d’apprentissage.
Les années Bell Labs
Les travaux du chercheur y sont appréciés. Pourtant, les projets en cours n’arrivent pas à se vendre. Malgré le développement d’un système de compression des données plus efficace que JPEG et PDF (nommé DjVu), c’est l’échec commercial. En cause, pour l’auteur, l’incapacité à commercialiser correctement le logiciel.
Un tabou ?
En fait, au milieu des années 1990, les recherches de Yann Le Cun et de ses quelques collègues deviennent l’objet d’une sorte de rejet ou de tabou par le reste de la communauté du machine learning. Pourtant, bon nombre de chercheurs travaillent ensemble et s’influencent l’un l’autre.
Au début des années 2000, il décide de relancer dans la recherche fondamentale (qu’il avait plus ou moins laissé tomber au Bell Labs pour le projet plus appliqué de DjVu). Il refuse, pour cela, un poste de direction dans la toute jeune entreprise… Google !
Il est embauché en tant que professeur à la New York University en 2003. Avec la « ferme intention de redémarrer un programme de recherche sur les réseaux de neurones articiefs et de démontrer qu’ils marchent ».
Mais toujours pas facile de se faire accepter… Le reste de la communauté boude cette bande de scientifiques qui refusent le courant majoritaire du machine learning. Pour rendre leurs travaux plus sexys, Yann Le Cun et ses amis renomment leur projet en deep learning. Au début, rien.
Il faut attendre 2006 et surtout 2007 pour que la notion commence à circuler largement et soit peu à peu acceptée dans la communauté scientifique. En parallèle, les recherches se diversifient et des jeux de données plus vastes et diversifiés sont utilisés pour faire progresser les modèles. C’est également à cette époque que la régression devient un élément clé dans l’optimisation des performances de ces modèles.
🤓 Avertissement pour la suite :
- Les chapitres suivants (3-7) sont très techniques (formules mathématiques et schémas compris !). Ils expliquent le mode de fonctionnement du deep learning en partant des recherches des années 1960, pour aller jusqu’aux recherches les plus contemporaines de Yann Le Cun lui-même et de ses collègues.
- Pour rendre cette chronique plus lisible, nous allons grandement simplifier le propos en nous centrant avant tout sur l’histoire de Yann Le Cun et les principaux enjeux de ces techniques pour la société et notre compréhension de l’humain.

Chapitre 3 — Machines apprenantes simples
Le chercheur montre tout l’intérêt, mais aussi les limites, de l’apprentissage automatique supervisé. Le « perceptron » est le nom donné à ces premiers dispositifs capables de reconnaître des caractéristiques après un « entraînement » sur de nombreuses données. Entraînement signifie ici : rédiger des lignes de code et des « étiquettes » pour permettre à la machine d’apprendre progressivement quel est le bon résultat.
Une première propriété très intéressante émerge de cette méthode : la propriété de généralisation. En effet, « une fois entraînée, une machine bien construite peut aussi reconnaître des exemples qu’elle n’a jamais vu ». Elle est donc capable — au bout d’un long suivi — d’apprendre « par elle-même ».
Yann Le Cun est toutefois persuadé qu’il est possible d’aller plus loin. Il veut trouver des moyens d’entraîner automatiquement les machines, plutôt que de coder toutes ces instructions « à la main ». Autrement dit, il veut réussir à se passer progressivement de la supervisation des « extracteurs de caractéristiques » (qui permettent d’identifier les images, notamment).
C’est la base du deep learning et des réseaux de neurones artificiels dits « multicouches ». Mais il faut, comme nous l’avons dit au chapitre précédent, de longues années au chercheur pour faire valider son idée auprès de la communauté scientifique.
De plus, pour optimiser l’entraînement des réseaux de neurones artificiels, les chercheurs ont commencé à utiliser de plus en plus de jeux de données complexes, ce qui a permis d’améliorer la capacité de généralisation des machines. Une fois ces machines bien entraînées, il est possible de tester leur capacité à effectuer une régression et à prédire des résultats avec des données inconnues, ce qui ouvre la voie à de nombreuses applications dans divers domaines.
Chapitre 4 — Apprentissage par minimisation, théorie de l’apprentissage
Pour Yann Le Cun et les chercheurs en intelligence artificielle, il devient clair que l’intelligence (humaine ou artificielle) peut surgir d’éléments au départ très simples. C’est leur combinaison qui donne naissance à une propriété nouvelle et supérieure. Cela est clair avec l’intelligence humaine : des neurones (cellules) et des synapses (relations entre les cellules) sont à l’origine de nos pensées.
Mais il y a une autre leçon importante, au croisement de la biologie, de la théorie de l’apprentissage et de l’intelligence artificielle : « l’inné est une nécessité ». C’est-à-dire ? « Nous avons obligatoirement des structures qui précâblent notre cerveau ». Même bébés, nous ne nous aventurons pas dans la vie sans bagages. Si nous pouvons apprendre si bien, en tant qu’humains, c’est parce que notre cerveau est dès le départ spécialisé pour cette tâche.
La méthode d’essais et erreurs fonctionnent très bien pour les humains et pour les machines. Dans le cas des machines, les spécialistes adoptent une approche plus radicale et parlent de « minimisation de fonction de coût », qui désigne de façon basique le schéma suivant :
- Essai(s) ;
- Erreur(s) ;
- Ajustement(s) pour approcher le résultat attendu.
Pour rendre cette approche possible, les machines doivent être entraînées avec des jeux de données variés et volumineux, permettant d’améliorer leur précision. Ces jeux de données constituent une base essentielle pour entraîner des réseaux de neurones artificiels, capables d’effectuer des tâches complexes comme la reconnaissance d’images ou le traitement du langage naturel.
En parallèle, les algorithmes sont optimisés pour effectuer des tâches telles que la régression, une technique essentielle pour prédire des résultats continus ou établir des relations entre variables.
Pourrait-on parler de « minimisation de fonction de coût » dans le cas des humains ? C’est une question qui reste ouverte et qui offre des perspectives de recherches intéressantes en théorie de l’apprentissage humain.
Chapitre 5 — Réseaux profonds et rétropropagation
Comme nous avons affaire ici à l’un des inventeurs de cette méthode, autant le citer complètement lorsqu’il nous parle des principales caractéristiques des réseaux profonds ! En voici ce qu’il dit à la fin de ce chapitre pour simplifier :
« Pour résumer, le deep learning consiste à 1) construire l’architecture d’un réseau multicouche en arrangeant et en connectant des modules ; 2) entraîner cette architecture par descente de gradient après calcul de ce gradient par rétropropagation. L’adjectif deep exprime simplement le fait que les architectures possèdent de multiples couches. Rien de plus. »
(Quand la machine apprend, Chapitre 5)
Qu’est-ce qu’une « descente de gradient après calcul de ce gradient par rétropropagation » ? Retenez que, pour l’essentiel, il s’agit d’une méthode inventée par Yann Le Cun et ses collègues dès les années 1980 pour « minimiser la fonction de coût », c’est-à-dire obtenir un meilleur ratio de réussites lors des essais/erreurs de la machine.
Cette méthode repose en grande partie sur l’entraînement des machines avec des jeux de données massifs et variés, essentiels pour améliorer la précision des algorithmes. Ces jeux de données fournissent les informations nécessaires pour permettre aux réseaux de neurones artificiels d’apprendre à accomplir des tâches complexes.
Comme nous l’avons déjà signalé, cette technique devra attendre les années 2010 pour faire véritablement ses preuves et que l’on puisse parler de « révolution ». Pourquoi ? Car c’est à cette époque que sont créés et rendus disponibles :
- Des processeurs graphiques programmables (GPU) puissants ;
- De grandes bases de données (grâce à Internet).
Voyons cela de plus près.
Chapitre 6 — Les réseaux convolutifs, piliers de l’IA
Mais comment — concrètement — Yann Le Cun en est-il venu à développer ces célèbres réseaux de neurones artificiels multicouches (dits aussi convolutifs) ? L’histoire commence sans doute aux Bell Labs, où il « développe une architecture toute neuve de réseau multicouche » bricolée à partir de ses connaissances sur le « système de vision chez les mammifères ».
Nous sommes entre les années 1985 et les années 1990 et tout semble aller pour le mieux, avant que les spécialistes ne déchantent : ces réseaux sont trop gourmands en ressources pour être vraiment efficaces. Cependant, l’arrivée de grandes bases de jeux de données et des avancées en calcul, notamment la descente de gradient par régression, permettront de rendre ces architectures viables. Jusqu’en 2012…
La bombe de 2012
Lors d’un concours annuel spécialisé dans la reconnaissance d’image, une équipe de Toronto pulvérise les records jusque là établis en réussissant la prouesse de n’avoir que 16 % d’erreurs dans la reconnaissance. Or il se trouve que leur méthode est inspirée des travaux que Yann Le Cun y a effectué alors qu’il y était en doctorat, notamment dans la conception des réseaux de neurones artificiels convolutifs.
Ce challenge crée un précédent. À partir de là, tout le monde veut en être. « La révolution est en marche », dit l’auteur.
Flash-back
Sans entrer dans les explications techniques, nommons les inspirations du chercheur lorsqu’il était en postdoctorat à Toronto et même encore avant cela, lorsqu’il travaillait pour la compagnie Bell. Autrement dit, remontons dans les années 1980…
Tout d’abord, il s’inspire de très près des recherches de deux neurobiologistes (Hubel et Wiesel) sur le cortex visuel. Ces investigations l’inspirent pour développer ses propres recherches en intelligence artificielle et en reconnaissance d’image.
Il est également fasciné par les travaux d’un certain Kunihiko Fukushima, chercheur « visionnaire » ayant créé le Néocognitron. Un ancêtre des réseaux neurones artificiels convolutifs !
En 1986, il est encore en thèse de doctorat et, pétri de toutes ses idées et de ces deux influences (entre autres), il décide de se lancer. Mais il a besoin d’aide et c’est Louis Bottou, un autre doctorant, qui va lui venir en aide pour coder le premier logiciel dont il a besoin.
En 1988, Yann Le Cun construit ses premiers convolutifs et parvient à les faire tourner de façon « artisanale », sans jeux de données publiques. Pour autant, la partie n’est pas gagnée, car il existe des systèmes concurrents qui ont, pour l’instant, toujours la main…
Les réseaux convolutifs
« Il est temps de les présenter ! Les réseaux convolutifs sont un type particulier de réseaux de neurones. Ils combinent à la fois une architecture de connexion particulière (…) et l’entraînement du système de bout en bout par la rétropropagation du gradient. »
(Quand la machine apprend, Chapitre 6)
Le chercheur est généreux en détails techniques. Dans le cadre de cette chronique, contentons-nous de dire que cette innovation a été « la » grande percée réalisée par Yann Le Cun. Désormais, comme il le dit lui-même à la fin du chapitre, « les réseaux convolutifs sont présents dans la plupart des systèmes de reconnaissance d’image. »
Ces systèmes reposent souvent sur des techniques comme la descente de gradient, une méthode clé pour optimiser la régression des modèles et améliorer leurs performances. Et la plupart de ces systèmes sont en open source, ce qui permet à chacun (avec les compétences requises) de les découvrir et de les améliorer.

Chapitre 7 — Dans le ventre de la machine ou le deep learning aujourd’hui
« L’IA, avec sa puissance d’analyse, de reconnaissance et de classification automatique, aide l’être humain dans toutes sortes de tâches qu’il assurait seul jusque-là. En un mot, elle est partout ! »
(Quand la machine apprend, Chapitre 7)
Pour autant, il existe des intelligences artificielles ou, plutôt, des méthodes différentes. Le deep learning, bien que très en vogue aujourd’hui, n’en a pas pour autant détrôné d’autres techniques comme l’exploration arborescente ou l’inférence logique, par exemple.
Reconnaissance d’image
L’étiquetage n’est pas une mince affaire. Pour que les réseaux de neurones artificiels puissent retrouver les images que vous voulez voir quand vous tapez un mot dans un moteur de recherche par exemple, il a fallu taguer ou étiqueter des millions d’images dans des jeux de données pour aider l’algorithme à mener à bien sa tâche.
Facebook et Google sont devenus des maîtres en la matière. Si des dérives peuvent être observées, les applications sont le plus souvent pacifistes et employées sans heurts par les utilisateurs. Qu’on pense par exemple à la reconnaissance :
- De plantes et d’animaux ;
- D’étiquettes de vins ;
- De produits commerciaux ;
- Ou encore de monuments ;
- Etc.
Enchâssement de contenu et mesure de similarité
Les algorithmes sont capables de reconnaître les similarités entre les images. Les experts parlent d’enchâssement (embedding) pour désigner la représentation « d’une image, d’une vidéo ou d’un texte par un vecteur » calculée par un réseau de neurones.
Sans entrer ici dans les détails, cette méthode dite du « réseau siamois » a été utilisée par Yann Le Cun dès les années 1990 et a largement fait ses preuves. Des techniques comme la régression sont également souvent exploitées pour analyser et affiner ces modèles, en optimisant leur capacité à établir des correspondances précises et significatives.
Reconnaissance de la parole
Pour numériser la parole, chaque langue doit être découpée en sons distinctifs et transformée en « échantillons », c’est-à-dire en suites de nombres. Ensuite, il faut que tout ceci soit retransformé en mots. Parfois même, les réseaux de neurones artificiels transforment les phrases en texte pour que le message puisse être analysé.
Tout cela, bien sûr, se passe très vite. Une application récente de la reconnaissance de la parole est le speech-to-speech, qui permet la traduction quasi-instantanée de paroles. Vous parlez en italien à votre chauffeur de taxi japonais via l’application et celui-ci reçoit le message dans sa langue maternelle. Ces résultats sont possibles grâce à l’entraînement des modèles sur de vastes jeux de données multilingues.
Autres applications
Dans la suite de ce chapitre, Yann Le Cun s’intéresse également aux prédictions, à la traduction et à la synthèse de la parole et du son. Il montre, par ailleurs, l’intérêt du deep learning pour la science et notamment la physique. Des techniques telles que la régression jouent ici un rôle clé pour modéliser des relations complexes et optimiser les performances des systèmes.
Mais il s’intéresse surtout à 3 des 4 autres applications générales dont nous reparlerons brièvement au chapitre 9 :
- La voiture autonome ;
- L’assistant virtuel ;
- L’imagerie médicale et la médecine.
Pourquoi ces applications sont-elles importantes à décrire ? Car leur potentiel de développement commercial est immense. L’auteur montre patiemment, tout au long des sections, comment fonctionne ces dispositifs, quelle est la part prise par le deep learning dans leur élaboration et quelles sont les barrières qui restent à franchir.
Chapitre 8 — Les années Facebook
À partir de 2012, l’apprentissage-machine a le vent en poupe. Facebook, lui, s’apprête à fêter ses 10 années d’existence et commence à s’intéresser sérieusement à l’IA.
Recruté par Mark Zuckerberg
Yann Le Cun voit d’abord l’un de ses anciens étudiants être recruté par Mark Zuckerberg (P.D.-G.) et Mike Schroeper (chief technology officer, CTO) en personnes pour entrer chez Facebook. Peu de temps après, c’est à lui-même qu’ils s’intéressent, mais il commence par refuser.
Les négociations se poursuivent un moment et le chercheur donne ses conditions :
- La liberté de rechercher sans obtenir de résultats immédiats ;
- L’encouragement à publier les résultats dans des articles ;
- La recherche doit être ouverte et les logiciels partagés en open source ;
- Il veut conserver son poste de professeur à l’université de New York et ne pas déménager.
Les dirigeants de Facebook acceptent ! En peu de temps, une équipe de base est composée. Le travail de cette équipe repose largement sur l’utilisation de jeux de données massifs pour entraîner les réseaux de neurones artificiels. Pour améliorer les performances des modèles, des techniques comme la régression sont également employées pour analyser les relations entre les variables et optimiser les résultats.
Pour Yann Le Cun, la question de la publication des résultats est déterminante et il prévient d’ailleurs :
« Si vous tombez sur une start-up dont les dirigeants prétendent posséder des résultats top secrets menant à l’IA de niveau humain, ils mentent ou s’illusionnent. Ne les croyez pas ! »
(Quand la machine apprend, Chapitre 8)
Les laboratoires de recherche de Facebook
Le Facebook Artificial Intelligence Research (FAIR) compte 4 sites principaux dans le monde en 2019 :
- Menlo Park (Californie) ;
- New York ;
- Paris ;
- Montréal.
Il faut y ajouter quelques sites moins importants. Au total, ce sont plus de 300 chercheurs qui travaillent pour Facebook à cette date. Le site parisien est l’un des plus importants. L’auteur montre d’ailleurs comment FAIR-Paris s’est connecté aux institutions locales (centres de recherches universitaires, doctorats, etc.). D’ailleurs, Facebook a depuis été suivi par Google et d’autres.
Au début, cependant, seul existe le site de Menlo Park et quelques chercheurs. Tout l’enjeu consiste à assoir la réputation du nouveau laboratoire et à attirer des talents. Yann Le Cun veut rendre claire la politique du laboratoire en matière de résultats et de liberté de la recherche (voir les points cités dans la section précédente).
Les travaux du FAIR s’appuient sur l’utilisation de vastes jeux de données pour entraîner des modèles complexes. Ces modèles incluent des réseaux de neurones artificiels, capables de traiter et d’apprendre des informations avec un haut degré de précision. De plus, des techniques telles que la régression sont utilisées pour modéliser les relations entre les variables dans ces jeux de données et affiner les prédictions des systèmes.
Et même s’il insiste sur le fait de travailler sans pression, il sait aussi que Facebook voudra des résultats à moyen terme. Autrement dit, l’entreprise voudra créer et commercialiser des logiciels et faire des bénéfices. C’est, in fine, la garantie de la pérennité du laboratoire lui-même.
Cahier des charges ?
Bien que Mark Zuckerberg ait laissé les mains libres à Yann Le Cun, celui-ci sait d’expérience que l’entreprise veut des résultats. Celui-ci crée donc un second laboratoire spécialisé dans les applications et y place à sa tête Joaquin Quiñonero Candela.
En 2018, ce laboratoire est renommé FAIAR (Facebook AI-Applied Research) et les deux instances (FAIR et FAIAR) sont regroupées sous le chapeau Facebook AI. Les relations entre les deux entités s’améliorent à partir de là : « Une innovation de FAIR en reconnaissance d’image ou en traduction peut se retrouver sur les écrans de milliards de personnes en quelques semaines », s’enthousiasme Yann Le Cun.
À ce propos, les domaines d’application les plus importants pour l’entreprise sont la :
- Compréhension de texte ;
- Traduction ;
- Reconnaissances d’image et en particulier la reconnaissance de visages, qui repose en grande partie sur des réseaux de neurones artificiels.
À partir de 2013-2014, Facebook commençait à fonctionner avec du machine learning. Point. En 2018, il ne pourrait plus se passer du deep learning : « sans lui, Facebook ne pourrait plus fonctionner », dit encore l’auteur.
Les travaux du FAIAR, comme ceux du FAIR, reposent sur l’analyse de vastes jeux de données nécessaires pour entraîner des modèles performants. Ces modèles utilisent des techniques avancées comme la régression, qui permet de modéliser et prédire les relations entre différentes variables, pour optimiser les systèmes et améliorer les résultats.
« Aujourd’hui, l’IA traduit automatiquement des conversations entre d’innombrables langues. Elle analyse des milliards d’images par jour pour aider à l’agencement des fils d’information et produire des textes de description pour les personnes malvoyantes. Le profil des milliards d’utilisateurs est actualisé constamment en fonction de leurs clics, etc. »
(Quand la machine apprend, Chapitre 8)
Le filtrage d’informations et Cambridge Analytica
Yann Le Cun aborde ensuite deux thèmes épineux pour Facebook. Concernant le triage d’informations, il reconnaît qu’il y a encore de nombreux ratés qui sont dûs à l’incapacité des IA à trier correctement les contenus, notamment visuels. Mais il insiste surtout sur les progrès qui sont réalisés et les tentatives pour améliorer constamment l’algorithme et faire un travail rigoureux de sélection, notamment à travers l’analyse de vastes jeux de données qui permettent de mieux entraîner les réseaux de neurones artificiels.
Au sujet du scandale de Cambridge Analytica, il décide d’en parler « brièvement » tout en considérant qu’en fait, cela n’a « rien à voir avec l’IA ». Selon lui, Facebook avait remédié au problème dès 2016, mais des personnes mal-intentionnées s’étaient déjà approprié les données et les ont transmises, plus tard, à l’entreprise Cambridge Analytica, qui les a utilisées à des fins politiques.
Pour Yann Le Cun, il est possible « de reprocher à la direction de Facebook un excès de confiance », mais pas d’avoir délibérément vendu les données des utilisateurs. D’ailleurs, toujours selon le chercheur en IA, « Facebook ne vend pas les données personnelles de ses usagers aux publicitaires ».
Newsfeed, Facebook et les médias et le nouveau Facebook
L’auteur continue en évoquant le nouveau fil d’actualités — c’est-à-dire celui que nous connaissons depuis 2015 au moins. Grâce au deep learning, celui-ci se modifie constamment en fonction de nos clics. Non seulement pour nous fournir plus de pubs, soutient le chercheur, mais pour trouver un bon ratio entre publicités d’intérêt et posts venus d’ailleurs (nos amis, groupes, etc.), en analysant les jeux de données liés à nos comportements..
Yann Le Cun considère également que les changements de l’algorithme de Facebook ont donné un « coup de pouce » aux journaux de qualité et mis plus à mal les producteurs de contenus malveillants ou racoleurs. En tout cas, il confirme l’importance du réseau social sur l’économie des médias traditionnels.
Par ailleurs, une politique de surveillance des contenus doit être mise en place et cela dépend en partie de l’État et de la société civile, auprès desquels Facebook s’est tourné pour trouver des solutions. Dans tous les cas, le dirigeant de Facebook veut donner un nouveau visage à la plateforme et le ton est donné :
« L’avenir de Facebook sera centré sur les communications privées et les discussions entre amis, avec données encryptées de bout en bout. »
(Quand la machine apprend, Chapitre 8)
Les chantiers de FAIR et le prix Turing
FAIR cherche à simplifier le processus de reconnaissance d’images et utilise pour ce faire des images d’Instagram pour entraîner ses réseaux de neurones artificiels. C’est, semble-t-il, le gros chantier du moment.
En 2019, Yann Le Cun a eu l’honneur de recevoir le prix Turing, équivalent du prix Nobel pour l’informatique. Il partage cette récompense avec deux autres chercheurs en intelligence artificielle. Dans la foulée, il est également devenu chief AI scientist chez Facebook et a quitté la direction de FAIR. Il est désormais le bras droit de Facebook AI aux côtés de Jérôme Pésenti.

Chapitre 9 — Et demain ? Perspectives et défis de l’IA
Dans ce chapitre, l’auteur pose les questions de l’évolution de l’IA. Quels sont les perspectives et les défis techniques à relever ? Yann Le Cun donne de nombreuses explications et propose plusieurs pistes de développement.
Il aborde en particulier les questions de/des :
- L’apprentissage supervisé ;
- L’apprentissage par renforcement ;
- La création d’un « sens commun » ;
- L’apprentissage « autosupervisé » ;
- Capacités de prédiction des machines ;
- L’architecture des systèmes autonomes ;
- L’avenir de l’IA de façon plus générale.
Commençons par dire un mot de l’apprentissage supervisé et de l’apprentissage par renforcement.
Apprentissage supervisé et par renforcement
« Aujourd’hui, les meilleurs systèmes d’IA sont encore limités. Ils sont moins intelligents qu’un chat, dont le cerveau compte quand même 760 millions de neurones et 10 000 milliards de synapses. »
(Quand la machine apprend, Chapitre 9)
Il est bon de rappeler cette vérité simple. Le temps de la création de machines dotées d’une puissance égale au cerveau humain est encore assez loin. Mais les chercheurs y travaillent ! En s’inspirant de la nature, et parfois pas…
L’apprentissage supervisé couramment utilisé, par exemple, n’est qu’un « pâle reflet de l’apprentissage humain ou animal ». La machine a notamment beaucoup de difficultés avec des images dites « antagonistes », qui superposent plusieurs significations possibles. Ces jeux de données complexes posent des défis supplémentaires dans le domaine.
Pour le compléter ou le remplacer, l’apprentissage par renforcement peut être une solution. Ici, la machine apprend davantage encore par essais/erreurs de façon plus autonome. C’est notamment ce système qui a été utilisé par AlphaGo de DeepMind et d’autres. Ces techniques se basent en grande partie sur des réseaux de neurones artificiels, qui sont capables d’améliorer les prédictions au fil du temps.
Cela dit, ici encore, il y a des défauts — le principal étant le nombre d’interactions (essais:erreurs) énorme qu’il faut à la machine pour arriver à des résultats raisonnables. Ce qui demande souvent trop de temps en situation réelle, lorsqu’il faut répondre rapidement à un signal ou à un événement. Un problème encore irrésolu !
Le fameux sens commun et l’apprentissage autosupervisé
« Tel est le paradoxe de l’IA : extraordinairement puissante, extraordinairement spécialisée, et sans une once de sens commun. »
(Quand la machine apprend, Chapitre 9)
En effet, l’IA se trompe ou ignore bien des choses sans le savoir. Elle se contente d’agir dans le sens (souvent très précis et réducteur) qui lui a été « inculqué » par les humains. Tout le reste est pour elle sans importance et elle n’en a même pas idée !
Chez l’humain, le sens commun est ce socle de savoirs et aussi d’ignorance sue (c’est-à-dire que « vous savez que vous ne savez pas », mais que vous pouvez éventuellement deviner ou supposer). Bref, c’est tout ce qui « remplit les blancs et comble l’implicite » et nous permet d’avoir une relation riche au monde.
L’hypothèse de Yann Le Cun est que ce sens commun pourrait être modélisé et reproduit dans la machine par une forme d’apprentissage autosupervisé. Cela dit, il semble encore compliqué aujourd’hui d’entraîner efficacement les machines de cette manière, car elles ont des difficultés à traiter la prédiction en situation complexe.
L’architecture de systèmes intelligents autonomes
« Il est temps de réfléchir à l’architecture d’un système intelligent autonome qui pourrait apprendre à percevoir, à planifier et à agir. Beaucoup de recherches sont menées sur la question, mais la marche à suivre ne fait pas l’unanimité parmi les spécialistes. »
(Quand la machine apprend, Chapitre 9)
L’auteur donne plusieurs pistes pour y parvenir, tout en discutant les options de ses collègues spécialistes en intelligence artificielle. Nous n’entrerons pas dans les détails techniques ici.
Notons toutefois que l’exemple humain est la base des nombreux raisonnements qui sont proposés par les chercheurs. Plutôt logique, puisqu’il s’agit de reproduire ses propres capacités ! Comment, par exemple, fournir à la machine un « modèle du monde », tel que l’homme peut s’en former un ?
Une autre approche pourrait inclure des techniques comme la régression pour établir des relations entre les différentes variables et affiner les décisions prises par la machine. Cela permettrait au système de mieux adapter ses actions en fonction des informations reçues.
L’avenir de l’IA
Yann Le Cun repère 4 champs d’applications industrielles majeurs pour l’IA :
- Médecine ;
- Véhicule automobile ;
- Assistant personnel ;
- Robot domestique et industriel.
Pourquoi celles-là en particulier ? Car elles ont un marché potentiel énorme. Les entreprises cherchent à les développer en priorité et à avoir une avance sur leurs concurrents.
Pour l’auteur, toutefois, les grandes avancées techniques et industrielles devront sans doute attendre des avancées conceptuelles, notamment en matière d’autosupervisation.
Cela dit, nous voyons déjà — et cela depuis plusieurs années — les effets de l’IA sur ces quatre domaines, depuis l’aide à la recherche sur le cancer (médecine) jusqu’à l’aide à la conduite (véhicule autonome), en passant par ChatGPT (assistant personnel) et le développement de la domotique et des robots ménagers « smart ».
Chapitre 10 — Enjeux
Pourtant, une vague énorme de questions, qui vont de l’économie à la géopolitique en passant par la philosophie, se dresse devant nous. Allons-nous prendre peur face à ce tsunami ou nous rendre responsables des réponses à apporter ?
Dans ce chapitre, Yann Le Cun dresse un panorama des principaux enjeux en cours liés aux développements présents et à venir de l’intelligence artificielle. Voici les principales questions posées par l’auteur :
- Comment l’IA transformera-t-elle l’économie ?
- À qui profitera la révolution ?
- Quelles sont les potentielles dérives sécuritaires ?
- L’IA doit-elle être « explicable » ?
- Qu’est-ce, au fond, que l’intelligence humaine ?
- Le cerveau peut-il être comparé à une machine ?
- Les machines apprenantes sont-elles conscientes ?
- Auront-elles un jour des émotions ?
- Voudront-elles (nécessairement) prendre le pouvoir ?
- Comment intégrer des limites et aligner nos valeurs avec celles de l’IA ?
- Comment imaginer une véritable science de l’intelligence ?
Par commodité, nous allons réunir ces nombreuses interrogations en quatre sections :
- Les questions économiques ;
- Puis politiques ;
- Et celles qui touchent à la philosophie des sciences et de la conscience ;
- Pour enfin terminer par les questions plus générales sur l’avenir de l’humanité.
Les questions économiques
Les économistes parlent de GPT (general purpose technology, à ne pas confondre avec Chat-GPT pour generative pre-trained, un acronyme d’ingénieurs) pour désigner l’intelligence artificielle. Cela signifie qu’elle peut s’appliquer à tous les champs des activités humaines, comme l’informatique ou l’électricité avant elle, par exemple.
Sans aucun doute, des métiers disparaitront et d’autres émergeront. C’est déjà le cas avec l’émergence des géants du web. Par conséquent, de nombreuses personnes devront également se reconvertir pour continuer à être productives. De nouvelles compétences seront mises en valeur par les recruteurs.
Éducation (à la technologie) et innovation doivent aller de pair, selon Yann Le Cun. Or, pour l’instant, la France est très en retard sur ce point, car elle peine à modifier structurellement les conditions matérielles des chercheurs et des enseignants.
Si tous les métiers sont concernés par l’intelligence artificielle, il n’est pas sûr que celle-ci soit profitable pour tout le monde. Certaines personnes qui auront perdu leur emploi s’appauvriront, tandis que d’autres s’enrichiront grandement. Les inégalités risquent de s’accroître.
Mais l’auteur insiste surtout sur l’importance croissante des métiers liés à la création et à la personnalisation de la relation :
- Santé ;
- Science ;
- Art ;
- Éducation ;
- Sport.
Voilà des domaines qui devraient continuer à être porteurs à l’avenir, dans la mesure où les humains y apportent toute leur singularité.
Les questions politiques et militaires
L’IA est d’ores et déjà implémentée dans des armes. Les systèmes d’armes létales autonomes (SALA) font craindre le pire à certains commentateurs. Il existe des gardes-vous internationaux et nous verrons dans les prochaines décennies s’ils sont suffisants ou non face aux ambitions de certains dirigeants.
Le risque d’une dérive sécuritaire de l’IA doit également être pris en compte. Outre les armes autonomes, c’est l’utilisation de l’IA pour la surveillance à grande échelle et le contrôle des populations qui peut s’avérer problématique, surtout dans les pays qui connaissent déjà des dérives autoritaires et sécuritaires.
Yann Le Cun rappelle qu’il a participé à la création du Partnership for IA, une initiative visant à réfléchir, justement, aux principaux enjeux liés à l’intelligence artificielle.
Les questions de philosophie de la science et de la conscience
Pour Yann Le Cun, il est partiellement faux de dire que les réseaux de neurones artificielles sont des « boîtes noires » indéchiffrables. Nous y avons accès. Certes, il est vrai qu’il peut être difficile de comprendre exactement pourquoi une décision est prise. Mais nous devrions adopter la même attitude qu’avec les humains : la confiance devrait prendre, dans ce cas, le pas sur l’explication.
Nous ne devons pas davantage attendre que l’IA soit 100 % fiable pour l’utiliser, selon le chercheur. Comme pour la question de l’explication, nous pouvons nous baser sur un degré de confiance suffisant, comme nous le faisons tous les jours avec d’autres objets techniques et entre individus humains.
Par contre, il est certain que l’IA devra (doit) être capable de se justifier dans certaines circonstances : lorsqu’elle produit un jugement de droit ou une décision médicale, par exemple. L’auteur suggère des solutions.
D’un point de vue plus théorique, neurosciences et intelligence artificielle se fertilisent l’un l’autre. C’est un dialogue passionnant qui s’instaure entre les deux disciplines ! En fait, pour de plus en plus de scientifiques, le cerveau est une « machine biochimique ». Il n’y aurait donc pas de différence fondamentale ou « de nature » entre le cerveau humain et les réseaux de neurones artificiels.
Qu’en est-il, alors, de la conscience et des émotions ? Seront-elles accessibles un jour aux machines ? Sur la première question, Yann Le Cun est tout ce qu’il y a de plus affirmatif :
« Il ne fait aucun doute pour moi que les machines intelligentes futures posséderont une forme de conscience. Peut-être même que, à la différence de nous, elles pourront se concentrer sur plusieurs tâches simultanées. »
(Quand la machine apprend, Chapitre 10)
Au niveau des émotions, il est tout aussi optimiste. puisqu’il dit également : « Je ne doute pas que les machines intelligentes autonomes aient un jour des émotions ». Sa certitude lui vient de sa formation scientifique et de sa conviction qu’il n’y a pas de différence de nature entre humain et machine.
Les questions liées à l’avenir de l’humanité
Les machines ne prendront pas le pouvoir et ne mettront pas en péril l’humanité, selon Yann Le Cun — qui s’oppose ici (et critique explicitement) aux affirmations de Bill Gates, Elon Musk ou encore Stephen Hawking concernant les dangers de l’IA.
Pour l’auteur, l’intelligence n’est d’ailleurs pas nécessairement liée à la domination. C’est plutôt la testostérone qui l’est ! Cela dit, nous ferons bien d’aligner nos valeurs avec celles de l’IA, afin que celle-ci nous serve correctement. Yann Le Cun propose quelques solutions.
Enfin, peu à peu, au fur et à mesure que l’IA se développe, nous comprenons mieux ce que nous sommes nous-mêmes en tant qu’individus et collectifs humains. Une véritable science de l’intelligence pourra émerger de toutes ces recherches. C’est en tout cas le programme de recherche que se donne le chercheur !

Conclusion sur « Quand la machine apprend : la révolution des neurones artificiels et de l’apprentissage profond » de Yann Le Cun :
Ce qu’il faut retenir de « Quand la machine apprend : la révolution des neurones artificiels et de l’apprentissage profond » de Yann Le Cun :
Yann Le Cun est un optimiste et un insatiable curieux. Vous l’avez vu : il ne recule pas devant la complexité de la tâche et sait persévérer même quand les pronostics et ses pairs ne le suivent pas. Et le résultat, ici, est hautement positif : l’invention de l’apprentissage profond (deep learning) des machines.
Oui, les machines apprennent désormais. Et dépassent de loin nos compétences en calcul par exemple. Mais nous ne devrions pas avoir peur de ces progrès. Le chercheur en informatique et en intelligence artificielle se veut rassurant.
Selon lui, il est fort possible que la conscience émerge un jour des réseaux de neurones artificiels, mais il n’y a là pas lieu de s’inquiéter, car nous serons capables de mettre ces évolutions au service du progrès. C’est en tout cas le crédo qui est porté dans tout l’ouvrage.
Cela dit, cette optimiste et cette curiosité doivent être liées à la vigilance et à la recherche constante des limites :
« Comme toutes les autres révolutions technologiques en leur temps, l’IA bouleverse nos repères. Elle peut être mise au service du progrès… ou pas. Nous devons être vigilants. Pour ma part, je crois en son pouvoir d’améliorer profondément notre quotidien. Je crois aussi à son pouvoir de questionnement. La quête de la machine intelligente est motivée par le désir de nous connaître nous-mêmes. Les recherches sur l’IA et sur le cerveau s’enrichissent mutuellement. À ce titre aussi, l’IA représente un défi scientifique et technologique majeur pour les prochaines décennies. »
(Quand la machine apprend, Conclusion)
Points forts :
- Une plongée dans l’un des domaines scientifique et technique les plus fascinants du moment ;
- Par l’un des pionniers et chefs de file de cette discipline ;
- Avec de nombreuses histoires sur le développement récent de l’IA, notamment chez Facebook ;
- Un véritable témoignage de première main, bien présenté et bien écrit.
Point faible :
- Si vous êtes un geek, vous adorerez à coup sûr ! Pour les autres, il vous faudra vous accrocher un peu dans les passages plus techniques — mais cela fait tout le sel de cette lecture où nous sommes placés aux premières loges de la création du deep learning…
Ma note :
★★★★★
Avez-vous lu le livre de Yann Le Cun « Quand la machine apprend » ? Combien le notez-vous ?
(Pas encore de Note)
Loading...
Visitez Amazon afin de lire plus de commentaires sur le livre de Yann Le Cun « Quand la machine apprend ».
Visitez Amazon afin d’acheter le livre de Yann Le Cun « Quand la machine apprend ».