Bienvenue sur Des Livres Pour Changer de Vie ! Si vous êtes nouveau ici, vous voudrez sans doute recevoir mon livre "Vivre la vie de vos rêves avec votre blog" : cliquez ici pour recevoir le livre gratuitement ! 🙂
Bienvenue à nouveau sur Des Livres Pour Changer de Vie ! Comme ce n'est pas la 1ère fois que vous venez ici, vous voudrez sans doute recevoir mon livre "Vivre la vie de vos rêves avec votre blog" : cliquez ici pour recevoir le livre gratuitement ! 🙂
Résumé de « Au cœur de l’intelligence artificielle » d’Axel Cypel : ce livre, rédigé par un ingénieur travaillant de près avec les algorithmes, a pour ambition de vous aider à démêler le vrai du faux en matière d’IA — pour ce faire, il vous plonge au cœur des questions techniques, éthiques et sociales que posent le développement de l’intelligence artificielle.
Axel Cypel, 2020, 455 pages.
Chronique et résumé de « Au cœur de l’intelligence artificielle » d’Axel Cypel
Introduction : Du scientisme ambiant
Axel Cypel raconte plusieurs anecdotes personnelles qui montrent qu’il existe un flou autour de notre compréhension de l’IA et de ses pouvoirs. D’où les questions qu’il se pose dans cet ouvrage et auxquelles il voudrait donner des réponses réalistes :
« Quelle est la part du vrai dans ce qui s’entend sur l’IA et dans ce qui se lit ? Jusqu’où cette technologie peut-elle aller ? Est-ce souhaitable ? » (Au cœur de l’intelligence artificielle, Introduction)
Pour l’auteur, le flot incessant d’informations contradictoires et exagérées autour de l’IA nuit fortement à la compréhension sereine du phénomène. Axel Cypel veut donc démêler le vrai du faux et poser les questions calmement.
Mais, se demande-t-il, comment écrire sur l’IA ? Comment prendre en compte tous les aspects de cette réalité ? Pour nous aider à naviguer dans l’ouvrage, il a établi les sigles suivants :
- T pour Technique (bases informatiques et mathématiques) ;
- D pour Dangers (problèmes potentiels pour l’humain) ;
- L pour Limitations (soucis « techniques » à résoudre) ;
- C pour collatéraux (technologies affiliées à l’IA, questions philosophiques).
Dans le livre, ces sigles permettent de faciliter le repérage des grands thèmes liés à l’IA. Nous noterons la lettre correspondante après le titre de chaque chapitre (par exemple, au chapitre 1, [T]).

Partie A : Expliquer l’IA
L’auteur s’intéresse ici aux questions scientifiques et techniques. Le deuxième chapitre, plus « amusant », a pour but d’interroger nos perceptions de l’IA. Souvent, nous fantasmons et exagérons ce que peut cette technologie. C’est pourquoi un petit rappel de ses principes de fonctionnement s’avère utile.
Chapitre 1 : Présentation générale de l’IA [T]
Axel Cypel se lance ici dans les définitions. Qu’est-ce que l’IA d’un point de vue scientifique et technique ? Mais aussi :
- Quel est le rôle des données ?
- Qu’est-ce que le cloud ?
- Et la notion d’apprentissage ?
- Sans oublier : qu’est-ce qu’un algorithme ?
L’auteur cherche la clarté, mais pas la simplification. Il propose des développements intéressants pour lier les définitions entre elles. Par exemple, voici sa définition de l’algorithme :
« Un algorithme est un procédé (une sorte de recette) qui permet de résoudre un problème par la mise en œuvre de suites d’opérations élémentaires selon un processus défini aboutissant à une solution. » (Au cœur de l’intelligence artificielle, Chapitre 1)
💹 Pour en savoir plus sur le côté technique de l’IA, ainsi que son histoire, vous pouvez également consulter la chronique de L’intelligence artificielle pour les nuls.
Chapitre 2 : Le jardin d’acclimatation [D]
Voici un chapitre « amusant » ! En guise de contrepoint au précédent, l’auteur expose ici notre tendance à l’exagération en matière d’IA. Non, les robots humanoïdes ne nous ont pas encore remplacés, pas plus que les chatbots ne complotent pour prendre le contrôle de l’univers.
Tout l’intérêt de cette partie consiste à poser quelques limites entre le discours rationnel et le discours irrationnel au sujet de l’IA. Selon l’auteur, de nombreux journalistes, certes bien intentionnés, ont tendance à fausser le débat en écrivant de façon imprécise sur des sujets qu’ils connaissent peu.
Un petit « bêtisier de l’IA » est concocté par l’auteur afin de nous montrer les erreurs les plus fréquentes. Par exemple :
- L’idée que l’IA serait une entité autonome qui agirait toute seule ;
- L’iconographie de l’IA robot humanoïde ;
- La communication des chatbots entre eux ;
- L’idée selon laquelle la machine « cacherait » des informations à son créateur ;
- Etc.
À la fin du chapitre, Axel Cypel passe également de nombreuses pages à remettre en question la publicité faite autour des algorithmes censés venir en aide au processus de recrutement en entreprise.
Selon lui, nous avons tendance à faire trop confiance à ce qui nous est « vendu » (par le marketing ou les médias) comme de l’IA, sans forcément chercher à comprendre comment ces IA sont conçues.
Face à cela, il convient d’être prudent. Dans le recrutement comme ailleurs, mieux vaut y regarder à deux fois avant d’accueillir « bêtement » l’IA comme si c’était une panacée.
Chapitre 3 : Incursion dans l’IA [T]
Maintenant que l’auteur a clarifié les bases de l’IA (chapitre 1) et délaissé les rêveries (chapitre 2), il nous propose de mettre davantage les mains dans le cambouis.
Comment ? En abordant la notion d’apprentissage supervisé. Pour rendre la présentation plus claire et didactique, Axel Cypel choisit d’employer une métaphore culinaire. Il explore aussi les notions de réseaux neuronaux et la différence entre machine learning et deep learning.
▶️ Pour tout savoir sur l’histoire du deep learning par l’un de ses inventeurs, allez jeter un œil à la chronique du livre de Yann Le Cun, Quand la machine apprend.
Dans la seconde partie du chapitre, il utilise plusieurs exemples pour nous faire prendre la mesure de ce que cette technologie fait déjà au quotidien ou est sur le point d’accomplir :
- Régler la température de votre maison ;
- Jouer aux échecs ;
- Révolutionner la médecine.
À chaque fois, il montre comment l’ancienne manière de penser l’IA (les systèmes experts) peut être confrontée à la nouvelle façon de faire (les réseaux de neurones).
Chapitre 4 : L’apprentissage machine [T]
Dans ce chapitre, Axel Cypel s’intéresse dans un premier temps au nouveau métier de data scientist.
4 grandes tâches sont liées à ce nouveau métier :
- Comprendre le problème d’un métier et le traduire en langage mathématique ;
- Collecter et étudier des jeux de données qui mettent en scène le problème ;
- Modéliser ;
- Créer une machine apprenante et contrôler ses performances.
Axel Cypel montre que la modélisation est au cœur de ce travail. Pour rappel :
« Modéliser une situation, c’est choisir un paradigme de représentation mathématique du réel dans lequel on peut transcrire ce que l’on souhaite effectuer. » (Au cœur de l’intelligence artificielle, Chapitre 4)
Ensuite, l’auteur poursuit son « incursion » dans l’apprentissage machine en exposant les autres méthodes existantes (au-delà de l’apprentissage supervisé, l’apprentissage non supervisé et l’apprentissage par renforcement). Ici encore, il nous invite à questionner les applications — et les implications — de ce type de recherches.
En l’occurrence, Axel Cypel remarque qu’il est bien trop tôt pour parler d’autonomie des machines, même lorsqu’elles apprennent de façon non supervisée ou par renforcement. Pourquoi ? Car elles n’ont pas la main sur le critère qu’elles doivent optimiser. Bref, c’est l’humain qui, toujours, décide pour elles !

Partie B : Limites techniques des approches
Le Big Data : voilà une expression à la mode. Et pourquoi donc ? Parce que les IA sont très gourmandes en données de toutes sortes. Cela cache aussi un programme (presque politique et scientifique) : « prévoir et comprendre à partir des données », sans même avoir besoin de théories et d’hypothèses !
N’y a-t-il pas des dangers potentiels ? C’est ce que Axel Cypel commence à se demander…
Chapitre 5 : Futur et déterminisme [C]
« L’activité de modélisation vise à nous doter d’une connaissance sur les phénomènes, dont l’objectif avoué est qu’elle nous serve à les prédire. Si la prévision possède un degré suffisant de pertinence, n’est-ce pas que le modèle dont elle provient détermine l’état des choses auxquelles il s’applique ? Si un modèle ou une loi permet de prévoir l’avenir, c’est donc que celui-ci est déterminé. Nous reste-t-il une part de liberté dans un tel monde ? » (Au cœur de l’intelligence artificielle, Chapitre 5)
Axel Cypel se pose des questions philosophiques en admettant qu’il procède sans se référer à de grands philosophes reconnus. Il cherche à penser par lui-même. Et sa question est celle du « déterminisme » lié à l’intelligence artificielle.
En effet, les algorithmes nous « rangent dans des cases ». Pensez-y. Vous avez tendance à acheter tel type de livre sur Amazon. L’algorithme de prédiction va vous proposer, en conséquence, des ouvrages du même acabit. Vous êtes donc « casé » par l’algorithme, c’est-à-dire rangé dans une « catégorie » décidée par l’IA elle-même.
Dans un tel monde, la liberté existe-t-elle encore ? Est-ce que mes actions à venir sont déjà « déterminées », voire « connues » (de l’IA) ? Les algorithmes sont-ils suffisamment efficaces pour cela ? Axel Cypel ne donne pas de réponse définitive, mais ouvre le débat.
Chapitre 6 : Les infirmités de l’IA [L]
Si elles peuvent certes prédire, parfois avec une acuité étonnante, les IA ne sont pourtant pas sans défauts. Oui, les algorithmes sont limités.
Tout d’abord, les IA aussi ont des biais — comme les humains qui les conçoivent ! Nous en avons eu de nombreux exemples ces dernières années, notamment avec ce chatbot de Microsoft devenu raciste en quelques heures seulement !
Mais ce n’est pas tout. Dans ce chapitre, l’auteur parle aussi du fonctionnement en boîte noire de l’IA, autrement dit le fait de ne pas comprendre la logique interne de l’algorithme. En effet, les data scientists sont capables de créer des modèles, mais ils ne parviennent pas nécessairement à savoir comment l’IA a trouvé une réponse précise… ce qui peut être gênant.
Comme le dit Jean-Claude Heudin, cité par Axel Cypel (p. 153) :
« Pour certains types d’application, il est nécessaire d’être capable d’expliquer (voire de prouver) comment le système a obtenu sa réponse. Or un réseau de neurones est comme une « boîte noire » qui exécute un nombre considérable de calculs numériques. » (Au cœur de l’intelligence artificielle, Chapitre 6)
Cherchant à dénicher les erreurs et limites de l’IA, l’auteur aborde plusieurs autres sujets :
- L’auto-apprentissage (le fait de se passer de supervision humaine) ;
- Les questions de l’induction, de la déduction et de l’abduction (des concepts pour expliquer comment apprennent et raisonnent les algorithmes et les humains).
- Les avancées en matière d’ordinateurs quantiques (la prochaine étape ?).
Dans une veine humoristique, il montre comment les erreurs de raisonnement des algorithmes peuvent amener à « démontrer l’existence de Superman ».
Chapitre 7 : Une conversation imaginaire avec Elon Musk [C]
Axel Cypel s’imagine ici en train de converser avec le célèbre magna de l’économie contemporaine, Elon Musk. Grâce au projet NeuraLink, l’entrepreneur qui n’a peur de rien souhaite introduire des puces dans nos cerveaux pour nous rendre plus intelligents que les IA. Vraiment ? Est-ce bien sérieux ?
Dans ce dialogue, l’auteur explique que l’idée consiste à brancher ces puces à Internet. De cette façon, nous pourrions recevoir toutes les informations que nous souhaitons en un temps record, directement par « télépathie ».
Pourtant il montre qu’il y a au moins deux raisons de ne pas vouloir commercialiser ce genre de puces :
- L’information diffusée sur Internet n’est pas vérifiée (et quand bien même elle le serait par un Institut spécial dédié à cette tâche, ce ne serait pas beaucoup plus rassurant, car celui-ci pourrait devenir l’instrument d’un pouvoir totalitaire) ;
- Un virus pourrait toujours être introduit dans les données et créer un « bug » dans la puce et donc, dans notre cerveau.
Chapitre 8 : Les petits théorèmes de limitation [L]
L’ingénieur aborde ici de façon plus approfondie des notions qu’il a évoquées plus tôt, telles que celle de généralisation et de sur-apprentissage.
Pour l’humain, il n’y a pas vraiment de « sur-apprentissage ». Mais la machine, elle, peut risquer l’overdose d’informations ! Lorsqu’une IA fonctionne bien, elle est capable de généraliser, c’est-à-dire de classer correctement de nouveaux éléments qu’elle n’a jamais rencontrés (une nouvelle image de chat dans la catégorie « chats », par exemple).
Le sur-apprentissage apparaît lorsque la machine apprend « par cœur » mais n’est pas capable de passer à l’étape supérieure de généralisation. Pour plus de détails — formules mathématiques comprises ! — voir p. 185-186.
D’autres problèmes spécifiques existent, comme ceux dits de :
- « La grande dimension » ;
- « La dépendance du chemin » ;
- « Les régressions fallacieuses ».
Chapitre 9 : Les grands théorèmes de limitation [L]
Le chapitre 9 continue sur la lancée du chapitre précédent, mais aborde des questions de logique et de philosophie. Faut-il être philosophe ou logicien pour comprendre l’IA ? Non ! Même si c’est vrai que la maîtrise de ces deux disciplines peut aider…
Voici quelques questions épineuses qu’il s’agit ici de résoudre :
- Comment la machine apprend-elle et connaît-elle ?
- Est-ce la même chose de parler de démonstration et de programme informatique ?
- La vérité est-elle nécessairement démontrable ?
- Un algorithme est-il un « modèle » du monde ?
- S’identifie-t-il à la réalité ou n’en est-il qu’une « représentation » ?
- Dans ce cas, qu’est-ce que ça signifie ?
Pour être plus précis, nous entrons ici dans un domaine de la philosophie nommé épistémologie (du grec épistémé et logos, étude de la connaissance) et de logique contemporaine. Les limites principales que rencontre l’IA prennent ici le nom d’incomplétude et d’indécidabilité.
Mais laissons cela pour les experts et intéressons-nous aux questions pratiques que posent l’IA et, plus largement, le numérique pour nos sociétés et nos économies.

Partie C : Autour de l’IA : socio-économie du numérique
Maintenant que nous sommes armés techniquement et logiquement, nous pouvons partir à la rencontre de sujets plus sociaux et économiques liés au développement de l’IA et du numérique en général. Ici, peur et enthousiasme se confrontent et se relaient souvent !
Chapitre 10 : Le transhumanisme [C]
Dans ce chapitre, Axel Cypel s’inspire du livre de Laurent Alexandre, La Guerre des intelligences, pour développer ses réflexions autour du transhumanisme. D’abord, il critique la thèse de cet auteur, pour qui il conviendrait de réformer l’école pour faire face à la révolution transhumaniste.
Mais d’abord, qu’est-ce que cette tendance ou cette « idéologie » ? Eh bien, c’est l’affirmation, par une série d’intellectuels tels que Nick Bostrom et d’autres, selon laquelle l’humanité est appelée à se transformer en profondeur, sous l’influence de deux tendances :
- L’homme est amené à se transformer (s’augmenter) grâce aux progrès scientifiques et techniques — et notamment grâce à l’IA et à l’informatique.
- Les IA vont atteindre la « singularité », c’est-à-dire un degré d’intelligence supérieur à l’homme.
Surtout, les adeptes du transhumanisme avancent des thèses qu’ils considèrent comme certaines. Selon eux, l’homme va inéluctablement se transformer et donner naissance à une espèce supérieure. Ou encore : l’IA va, à coup sûr, passer de « faible » à « forte » (c’est-à-dire aussi, voire plus intelligente que nous). Mais est-ce si sûr ?
Pour Laurent Alexandre, cela semble être le cas. Axel Cypel critique en effet le « techno-optimisme » de cet auteur et montre qu’il fait, sans l’admettre lui-même, partie des « transhumanistes »…
👀 Si vous voulez en lire plus à ce sujet, rendez-vous sur la chronique du best-seller de Yuval Noah Harari, Homo Deus.
Chapitre 11 : Destruction des emplois par l’IA [D]
Mais voici un problème plus concret et sans doute plus urgent : le travail et le rôle de l’IA dans l’entreprise.
Entre la crainte et l’espoir, de nombreux secteurs professionnels sont dans l’incertitude et doivent naviguer à vue. La plupart sont à la fois impatients de profiter des fruits de l’IA, mais inquiets aussi de bouleversements auxquels cette technologie peut conduire au niveau du marché du travail.
Que faire ? Il est difficile de prévoir précisément les évolutions réelles du marché de l’emploi, mais il est néanmoins capital de s’y préparer au niveau individuel.
« Tout un chacun se doit, avec ses moyens, de se tenir au courant et de tenter de comprendre, ou au moins d’approcher, les évolutions en cours, en suivant — et si possible en anticipant — le mouvement avec des formations qui, seules, garantissent que son employabilité perdure jusqu’à la retraite. » (Au cœur de l’intelligence artificielle, Chapitre 11)
Axel Cypel se veut toutefois optimiste : selon lui, l’intelligence humaine est encore bien supérieure à l’IA, car elle prend en compte la créativité (véritable) et l’incertitude.
Chapitre 12 : Le monopole de GAFAM [D]
Au cœur de l’économie de l’IA, il y a aussi les GAFAM (Google, Facebook, Amazon, Microsoft). Ces entreprises jeunes sont aujourd’hui très puissantes et tiennent souvent des positions monopolistiques.
Pour Axel Cypel, il est important de limiter, voire de casser ces monopoles. Pourquoi ? Il y a plusieurs raisons :
- Les GAFAM empêchent à d’autres entreprises, potentiellement innovantes, d’émerger ;
- Une entreprise comme Google, par exemple, peut nous faire passer une information intéressée (publicité) pour une information vraie (une connaissance).
Chapitre 13 : L’imposture des réseaux sociaux [D]
Autre question traitée (au pas de course) par l’auteur : les réseaux sociaux. Ceux-ci sont-ils des espaces de liberté ou de cantonnement ? Telle est, en effet, le dilemme posé par ces nouveaux modes de communication et d’échanges.
D’un côté, ils nous apparaissent comme des lieux d’expression où même des révolutions politiques peuvent se produire. D’un autre côté, pourtant, nous ne pouvons pas ne pas voir les nouvelles formes d’addiction qu’ils suscitent.
Pour y voir plus clair, il convient de prendre de la distance face aux discours « pseudo-scientifiques » qui entourent ces questions. Mais une fois cette précaution prise, qu’en penser ?
Pour Axel Cypel, il importe en effet de rester prudent, car les réseaux sociaux ont un pouvoir d’influence important sur les individus, à une échelle encore rarement atteinte jusqu’ici. Or, c’est en particulier la démocratie qui est menacée, ainsi que nos libertés individuelles.
Chapitre 14 : L’argent technologique [C]
Voilà une autre innovation qui a beaucoup fait parler d’elle, au point parfois de faire de la concurrence médiatique à l’IA : la blockchain ! Mais qu’est-ce que cette technologie et en quoi est-elle liée à notre façon de concevoir l’argent ?
Pour la définir d’une façon simple, nous pouvons dire que la blockchain est « un outil à générer de la confiance ». Sa particularité (comme Internet) est d’être un réseau complètement décentralisé qui a pour fin de certifier les transactions.
Ce dispositif offre transparence et sécurité — deux attributs essentiels de la confiance — sans avoir à passer par un « tiers de confiance » (une institution).
L’application la plus connue de la blockchain est le bitcoin, c’est-à-dire la monnaie électronique. Pour l’instant, celle-ci demeure encore marginale, mais a été l’objet de nombreuses spéculations ces dernières années.
Toutefois, pour l’auteur, le mode de fonctionnement de la blockchain et donc du bitcoin est :
- Une hérésie écologique (sa consommation en électricité est bien trop élevée) et cette technologie
- N’est pas suffisamment sûre à terme (car la puissance de calcul des ordinateurs quantiques pourrait bien la rendre caduque) ;
- Confisquée par les grands organismes bancaires ;
- Contraire à la confiance réelle, qui est basée sur l’acceptation du risque.
👀 Vous aimeriez en savoir plus et — peut-être — investir dans cette cryptomonnaie ? Lisez ce Guide du bitcoin pour le débutant.

Partie D : L’IA et le sens du progrès
Mais revenons maintenant à l’IA. Le développement des techniques liées à l’intelligence artificielle va-t-il dans le sens du progrès social et humain ?
Telle est l’une des grandes questions, au carrefour des savoirs, que nous devons nous poser. Axel Cypel l’aborde par quatre prismes, qui correspondent à chaque chapitre de cette partie.
Chapitre 15 : Le Traitement Automatique du Langage [T]
Dans ce nouveau chapitre technique, l’ingénieur, spécialiste des organisations, prend l’exemple des chatbots qui imitent la capacité humaine à la parole et au langage de manière générale (génération de texte, etc.).
Certes, l’IA peut comprendre nos requêtes et y répondre. Mais ne nous y trompons pas. Pour Axel Cypel, tout cela reste du domaine de la pure forme. L’humain a encore une bonne longueur d’avance ! Néanmoins, il est vrai que certaines modélisations sont bluffantes.
En particulier celles qui, dernièrement, se sont appuyées sur les réseaux de neurones (comme ChatGPT). À la différence des systèmes experts, qui tentaient de faire reproduire un certain nombre de règles (de grammaire, etc.) à la machine, la nouvelle approche consiste à associer langage et calcul de probabilités.
💡 Si vous voulez vous initier à ChatGPT, jeter un œil à la chronique de ChatGPT pour les nuls !
Chapitre 16 : Les dangers de l’IA [C]
Au-delà des promesses des chatbots, il est nécessaire de ne pas se voiler la face et de faire un bilan honnête des dangers qui nous guettent.
Pour Axel Cypel, le transhumanisme nous illusionne : ceux qui nous font croire à l’advenue d’une intelligence surhumaine ont en fait un agenda caché, qui est de prendre le contrôle des âmes humaines bien réelles.
C’est en tout cas ce qui pourrait bien se passer à long terme si nous n’y prenons pas garde. Les GAFAM pourraient bien acquérir un pouvoir identique à ceux des États et, de façon subreptice ou non, commencer à prendre un pouvoir sur nos vies plus important que celui que nous voudrions naturellement leur donner.
Autre risque à prendre en compte : le développement d’une société à deux vitesses, composée de/des :
- Ceux qui élaboreront et contrôleront l’IA ;
- « Déclassés », travailleurs qui devront exécuter ce que leur dit les IA et ceux qui la conçoivent.
Finalement, tout l’enjeu consiste à reprendre en main, de façon publique, la construction et la réglementation de ces technologies :
« La science doit servir et non pas asservir. Son usage à grande échelle, via la transmission radio et les algorithmes du big data, tend à assigner aux personnes une place prédéterminée. Qu’elle provienne d’États ou de puissants monopoles, la volonté politique à l’œuvre derrière ces méthodes doit être perçue, analysée et combattue lorsqu’elle va à l’encontre de l’intérêt public et des libertés individuelles. » (Au cœur de l’intelligence artificielle, Chapitre 16)
👁️ C’est notamment le rôle des lanceurs d’alertes comme Edward Snowden. Grâce à lui, des programmes d’espionnage et d’écoute à grande échelle ont pu être mis à jour et dénoncés de façon publique.
Chapitre 17 : Éthique et transparence
Que signifient ces deux concepts qui sont abondamment utilisés dans les discours actuels et qui sont censés nous rassurer ?
Premièrement, l’éthique est, selon la définition donnée par l’auteur, la « science de la morale ». Aujourd’hui, de nombreux comités d’éthique voient le jour pour traiter les questions morales liées aux technologies et à leurs dangers. Autrement dit, nous délaissons ces questions à des experts, spécialistes de cette « science ». Mais est-ce la bonne voie ?
Pour Axel Cypel, la réponse est non. L’auteur s’intéresse de près à la façon dont les pouvoirs publics et les entreprises cherchent à introduire, grâce à ces comités, l’éthique dans leurs décisions. Souvent, cela se solde par un échec.
Pourquoi ? Car, souvent, l’acceptation des techniques vient en premier lieu. L’éthique ressemble alors trop à une couche superficielle et finalement superflue de réflexion. Pourtant — et malheureusement — ces questions sont vraiment importantes !
Par ailleurs, nous devons penser à l’éthique dès la conception des algorithmes. Et cela passe par la transparence. Comment sont programmés les IA ? Comment s’assurer que leurs buts soient en accord avec les buts humains et sociaux ?
Chapitre 18 : Conscience (artificielle), IA forte [C]
Dans ce dernier chapitre, l’auteur aborde « la » question philosophique majeure — qui est aussi technique, d’ailleurs, puisque des ingénieurs planchent chaque jour sur la question — : quelle est la différence entre humain et machine et comment combler le fossé qui nous sépare encore ?
Ou, pour le dire autrement : est-il possible de concevoir une machine « vraiment » intelligente et donc, peut-être, consciente ?
Pour Axel Cypel, la réponse est non. Selon lui, seuls les êtres biologiques, et en particulier l’humain, peuvent « tolérer le continu », c’est-à-dire être ouverts sur le monde et suffisamment malléables.
Les machines, quant à elles, demeurent « enfermées » dans le traitement du calcul arithmétique. Et cela devrait nous contenter. En réalité, pour l’auteur, nous devrions :
- Nous concentrer sur la création d’IA efficaces (et correctement pensées) ;
- Abandonner complètement le discours sur l’IA forte, typique du transhumanisme.

Conclusion sur « Au cœur de l’intelligence artificielle » d’Axel Cypel :
Ce qu’il faut retenir de « Au cœur de l’intelligence artificielle » d’Axel Cypel :
Comme son sous-titre l’indique, ce livre a pour ambition de « démêler le vrai du faux« . Et c’est tout l’intérêt de la démarche d’Axel Cypel, en effet. Loin des discours médiatiques, politiques et commerciaux, il cherche à faire la lumière sur ce qui est réellement en jeu avec l’IA.
Sa thèse principale est assez claire : les promesses des transhumanistes, depuis l’idée d’amélioration de la race humaine jusqu’à l’invention d’une IA forte douée de conscience, sont pour lui des lubies et des illusions.
Ce qui compte, c’est de prendre en main les IA, « faibles » et limitées, mais néanmoins puissantes, qui commencent d’ores et déjà à envahir notre quotidien.
Il n’est pas question de les rejeter en bloc. L’auteur, qui travaille dans le domaine, n’a pas pour ambition de nous dégoûter de cette technologie. Mais il veut néanmoins nous montrer quels en sont les limitations et les dangers bien réels.
De cette façon, nous serons en mesure d’interagir avec elles de façon plus sage et, surtout, de trier le vrai du faux lorsque nous entendrons journalistes, entreprises et politiciens nous parler de l’IA.
Points forts :
- Un livre intéressant et original sur l’intelligence artificielle ;
- De réelles compétences de la part de l’auteur ;
- Une bonne bibliographie ;
- Une perspective personnelle et un ton plein d’humour.
Points faibles :
- Le ton humoristique et très personnel ne conviendra pas à tous.
Ma note :
★★★★☆
Avez-vous lu le livre d’Axel Cypel « Au cœur de l’intelligence artificielle » ? Combien le notez-vous ?
(1 votes, moyenne: 5,00 out of 5)
Loading...
Visitez Amazon afin de lire plus de commentaires sur le livre d’Axel Cypel « Au cœur de l’intelligence artificielle ».
Visitez Amazon afin d’acheter le livre d’Axel Cypel « Au cœur de l’intelligence artificielle ».