Bienvenue sur Des Livres Pour Changer de Vie ! Si vous êtes nouveau ici, vous voudrez sans doute recevoir mon livre "Vivez la vie de vos rêves grâce à votre blog" : cliquez ici pour recevoir le livre gratuitement ! 🙂
Bienvenue à nouveau sur Des Livres Pour Changer de Vie ! Comme ce n'est pas la 1ère fois que vous venez ici, vous voudrez sans doute recevoir mon livre "Vivez la vie de vos rêves grâce à votre blog" : cliquez ici pour recevoir le livre gratuitement ! 🙂
Résumé de « Nexus : Une brève histoire des réseaux d’information de l’âge de pierre à l’IA » de Yuval Noah Harari : le maître de la vulgarisation scientifique en matière d’histoire de l’humanité et des enjeux du numérique récidive avec un nouveau livre événement sur l’information et la question de l’intelligence artificielle — à lire absolument !
Par Yuval Noah Harari, 2024, 576 pages.
Titre original : Nexus. A Brief History of Information Networks from the Stone Age to AI.
Chronique et résumé de « Nexus : Une brève histoire des réseaux d’information de l’âge de pierre à l’IA » de Yuval Noah Harari
Prologue
L’humanité, malgré son immense pouvoir, reste sujette à des abus autodestructeurs. Les mythes de Phaéton et de l’apprenti sorcier, par exemple, illustrent l’incapacité humaine à maîtriser les forces qu’elle invoque. Toutefois, ces histoires négligent la nature collective du pouvoir.
Les réseaux humains, bâtis sur des illusions et des fictions, structurent nos sociétés à grande échelle. Néanmoins, ces fantasmes peuvent engendrer des régimes totalitaires tels que le nazisme et le stalinisme. Aujourd’hui, Y. N. Harari pense qu’un régime similaire pourrait émerger, exploitant les technologies modernes pour créer un contrôle total.
Prévenir cette dérive exige une réflexion sur nos réseaux, leur fonctionnement et la manière dont l’information les structure. Ça tombe bien, puisque c’est ce que l’auteur se propose d’entreprendre !
La vision naïve de l’information
La vision naïve de l’information repose sur l’idée qu’un réseau collectant et traitant un grand volume d’informations progresse inévitablement vers la vérité et la sagesse. Cette perspective, soutenue par des figures comme Ronald Reagan, Barak Obama et Ray Kurzweil, affirme que plus d’informations mènent à des décisions éclairées, favorise la santé, l’éducation, et la démocratie, tout en réduisant la violence et les préjugés.
Elle postule que l’information circule librement, même dans des contextes autoritaires, et corrige les erreurs par la diversité des perspectives. Cette vision met en avant des outils comme Google, perçu comme un outil neutre.
Elle promeut l’accès universel à l’information comme remède universel aux maux de l’humanité.
Google vs Goethe
Yuval Noah Harari analyse les promesses et dangers de l’intelligence artificielle (IA), la première technologie autonome capable de prendre des décisions et de créer de nouvelles idées. Si l’IA a déjà amélioré certains domaines, comme la santé, elle pourrait engendrer des conséquences catastrophiques.
Selon Y. N. Harari, l’IA exacerbe les tensions mondiales, renforçant le « rideau de silicium » entre puissances rivales ; ce qui pourrait — à terme — mener à un totalitarisme global, dirigé non par des humains, mais par des algorithmes.
L’IA menace également de reconfigurer nos sociétés, nos corps et nos esprits, en échappant à notre compréhension et contrôle.
Bien que des figures comme Ray Kurzweil voient l’IA comme une solution aux grands défis de l’humanité, Y. N. Harari alerte sur son potentiel à changer le cours de l’histoire et de l’évolution. Il considère ce pari comme bien plus risqué que les précédents usages technologiques, car les décisions ne seraient plus entre mains humaines.
L’information faite arme
Yuval Noah Harari analyse l’impact du populisme sur l’information et ses conséquences sur la coopération humaine face aux défis globaux. Pour lui, le populisme réduit l’information à une arme au service du pouvoir, niant la possibilité d’une vérité objective.
Cette vision ébranle des notions comme « faits » ou « vérité » et rejette les institutions scientifiques et médiatiques comme des outils des élites corrompues.
Inspiré d’intellectuels comme Marx ou Foucault, le populisme oppose systématiquement oppresseurs et opprimés. Il s’appuie parfois sur la révélation divine ou des leaders charismatiques pour combler le vide laissé par la méfiance envers les institutions.
Y. N. Harari critique ces perspectives, estimant qu’elles minent la coopération nécessaire pour relever des défis comme le changement climatique ou les menaces liées à l’intelligence artificielle. Il appelle à une vision nuancée, reconnaissant les limites de l’information tout en valorisant son rôle dans la construction de réseaux humains capables d’exercer un pouvoir éclairé.
Le chemin à parcourir
Le livre explore l’évolution historique des réseaux d’information humains pour éclairer les défis actuels et futurs liés à l’intelligence artificielle (IA).
- La première partie analyse comment mythologie, bureaucratie et mécanismes d’autocorrection ont façonné les réseaux d’information, des royaumes antiques aux États modernes, en opposant modèles centralisés et décentralisés.
- La deuxième partie examine l’émergence des réseaux inorganiques basés sur des puces de silicium, offrant des capacités radicalement différentes des cerveaux biologiques, tout en abordant leurs impacts politiques et sociaux.
- Enfin, la troisième partie envisage comment démocraties et régimes totalitaires peuvent gérer ces transformations, questionnant l’avenir du pouvoir humain face à l’IA.

Première partie. Réseaux humains
1 — Qu’est-ce que l’information ?
L’information, concept fondamental mais complexe, est explorée ici à travers son rôle historique et sociétal, sans chercher à offrir une définition universelle applicable à tous les domaines scientifiques. Traditionnellement associée à des symboles humains comme le langage ou l’écriture, l’information peut également émerger d’objets ou phénomènes naturels, selon le contexte.
Des exemples historiques, tels que le pigeon militaire Cher Ami (que l’on retrouve sur la couverture du livre ;)) ou les signaux des espions du réseau Nili, montrent comment des objets apparemment ordinaires deviennent des informations cruciales.
Cependant, définir l’information uniquement comme une représentation de la réalité — comme dans la vision naïve vue plus haut — est limité. Bien que la vérité puisse être vue comme une représentation exacte de la réalité, l’auteur soutient que la plupart des informations ne visent pas à représenter la réalité.
Cette distinction entre vérité et information est essentielle pour comprendre le rôle de l’information dans les systèmes biologiques, sociaux et physiques. Elle constitue le socle de la réflexion de l’ouvrage.
Qu’est-ce que la vérité ?
Pour l’historien, la vérité est une représentation fidèle d’un aspect de la réalité universelle, bien qu’elle ne puisse jamais refléter celle-ci dans son intégralité. Chaque tentative de représentation privilégie certains aspects tout en en négligeant d’autres.
La réalité objective contient des faits indépendants des croyances, tandis que la réalité subjective inclut des opinions et des sentiments, eux-mêmes vérifiables. Une quête d’exactitude exhaustive, comme une carte à l’échelle 1:1 décrite par Borges, s’avère impraticable.
La vérité repose donc sur une sélection éclairée de ce qui est pertinent.
Ce que fait l’information
Nous avons vu que Yuval Noah Harari remet en question la vision naïve de l’information, qui l’associe uniquement à une représentation fidèle de la réalité. Il soutient que l’information ne se limite pas à refléter le monde, mais qu’elle crée de nouvelles réalités en connectant des éléments disparates.
Par exemple, l’astrologie, bien qu’inexacte scientifiquement, a influencé l’histoire en reliant individus et sociétés.
L’ADN, autre exemple, ne représente pas la réalité externe mais génère des processus biologiques en formant des réseaux fonctionnels, comme la coordination cellulaire permettant aux organismes de survivre.
L’information connecte également des communautés humaines, parfois à travers des erreurs ou des fictions. Par exemple, des théories du complot, bien que fausses, unissent leurs adeptes autour de croyances communes.
Ainsi, l’information, bien plus qu’un outil de représentation, est une force créatrice, essentielle aux liens humains et biologiques.
L’information dans l’histoire de l’humanité
L’auteur souligne que le rôle fondamental de l’information est de connecter les individus et de créer des réseaux sociaux.
L’exemple de la Bible illustre ce point : bien qu’elle contienne des erreurs historiques et scientifiques, elle a rassemblé des milliards d’êtres humains en formant des réseaux religieux capables de réalisations collectives impressionnantes.
L’information peut être vraie ou fausse, mais son pouvoir réside dans sa capacité à relier les individus. Contrairement aux attentes de la vision naïve, l’accumulation d’informations et de technologies n’améliore donc pas nécessairement la véracité ou la sagesse humaine.
Des régimes comme l’Allemagne nazie et l’Union soviétique ont utilisé des délires idéologiques pour mobiliser efficacement leurs populations.
Pour aller plus loin sur ces questions, l’auteur explore, dans les chapitres suivants, comment les technologies de l’information, depuis les récits jusqu’à l’IA, ont renforcé la connectivité sans garantir une meilleure compréhension du monde.
2 — Histoires : connexions illimitées
Yuval Noah Harari montre la capacité unique des Homo sapiens à coopérer en grand nombre grâce à des récits partagés, plutôt qu’à des liens individuels. Contrairement aux chimpanzés ou aux fourmis, les humains peuvent bâtir des réseaux illimités grâce à des histoires, qui servent de connecteurs universels.
Des figures historiques comme Staline ou Jésus démontrent comment les récits peuvent dépasser la réalité personnelle, transformant des individus en symboles puissants. Y. N. Harari souligne également l’importance des récits religieux, qui instaurent des liens familiaux fictifs mais puissants, unissant des communautés autour de souvenirs collectifs fabriqués.
Ces récits, même fondés sur des fictions ou des erreurs historiques, permettent de connecter des milliards de personnes et de bâtir des réseaux sociaux solides. Comme il l’avait déjà fait dans son premier livre, l’auteur montre que la force des Sapiens réside moins dans leur sagesse que dans leur talent pour transformer des histoires en outils de cohésion et de coopération massive.
Entités intersubjectives
Yuval Noah Harari explore le rôle central des histoires dans la construction des sociétés humaines. Contrairement aux réalités objectives (comme les astéroïdes) ou subjectives (comme la douleur), les histoires créent une réalité intersubjective, où les concepts tels que nations, monnaies ou dieux n’existent que dans les récits partagés par de nombreux esprits.
Le pouvoir des histoires
Les réseaux sociaux fondés sur ces récits offrent des avantages collectifs, comme la solidarité tribale ou le partage des connaissances. Encore une fois, Y.N. Harari rejette la vision marxiste, qui réduit l’histoire à des luttes matérielles, et affirme que les croyances intersubjectives façonnent les identités et intérêts à grande échelle.
Il montre également que des récits séduisants mais destructeurs, comme le nazisme, peuvent entraîner des erreurs tragiques. Cependant, en modifiant ces récits, l’humanité peut parfois éviter les conflits et favoriser des coopérations pacifiques.
Le noble mensonge
Yuval Noah Harari nous invite à voir comment le pouvoir humain repose sur la vérité et les fictions. Si la vérité est essentielle pour des projets complexes, comme fabriquer une bombe atomique, l’ordre social dépend souvent de fictions partagées.
Ces récits, qu’ils soient nationaux, religieux ou idéologiques, unissent les masses en simplifiant des concepts complexes et en les rendant réconfortants. Contrairement à la vérité, souvent dérangeante, les fictions sont malléables. Les mythes nationaux, par exemple, occultent souvent les épisodes les plus sombres de l’histoire.
Y. N. Harari distingue les fictions qui admettent leur nature humaine, comme la Constitution des États-Unis, des récits proclamant une origine divine, comme les dix commandements.
- La Constitution reconnaît son caractère humain et intègre un mécanisme d’amendement, permettant des progrès comme l’abolition de l’esclavage.
- En revanche, des récits divins rigides entravent le changement.
L’historien considère que l’honnêteté sur les origines humaines des systèmes facilite leur adaptation, mais complique leur acceptation initiale par les masses.
L’éternel dilemme
Yuval Noah Harari donne une vision élargie des réseaux d’information, qui cherche à dépasser à la fois les visions naïves et populistes. L’information ne se limite pas à la quête de vérité, comme le pense la vision naïve. Mais elle ne se limite pas non plus à la question de l’ordre, comme le postule le populisme.
Les réseaux humains, pour survivre et croître, doivent équilibrer ces deux aspects souvent contradictoires : rechercher la vérité tout en maintenant l’ordre. Cela mène parfois à sacrifier la vérité pour préserver l’unité sociale, comme dans le rejet de la théorie de l’évolution par certains groupes sociaux.
Au XXIe siècle, malgré nos technologies avancées, nous sommes toujours confrontés à cet équilibre fragile entre l’ordre et la vérité. L’histoire, des premières fictions aux documents écrits, enseigne que la quête de vérités et l’imposition d’un ordre sont des forces à harmoniser.
3 — Documents : la morsure des tigres de papier
Les histoires furent la première technologie d’information humaine, essentielle à la coopération à grande échelle et à la formation des nations. Des poètes comme Haïm Nahman Bialik ou Theodor Herzl ont inspiré des mouvements comme le sionisme par leurs récits puissants — et cela malgré de fortes limites, comme l’ignorance des réalités locales en Palestine.
Les histoires motivent les actions collectives et légitiment les institutions, mais elles ne sont pas suffisantes pour gérer les infrastructures et services nécessaires à un État.
Pour collecter et traiter les informations complexes requises par les systèmes fiscaux, les institutions financières ou administratives, une technologie plus précise est nécessaire : les documents écrits.
Contrairement aux histoires, qui sont faciles à mémoriser, les listes et données administratives sont ennuyeuses et difficiles à retenir. Ainsi, le passage des histoires à l’écriture a permis d’étendre les capacités humaines en facilitant la gestion des réseaux sociaux et économiques, ce qui a eu pour effet de transformer durablement les civilisations.
Prêts à tuer
Les documents écrits, apparus en Mésopotamie, ont transformé les relations sociales en créant des réalités intersubjectives indépendantes des limites cognitives humaines. Contrairement aux sociétés orales, où la propriété et les droits étaient définis par consensus local, l’écriture centralise ces réalités dans des documents officiels.
Ces derniers, loin de représenter la réalité, la créent, comme en témoignent le droit de propriété ou les contrats assyriens, où détruire un document annulait une dette. Cette évolution a permis aux autorités centrales de contrôler et gérer des systèmes complexes, rendant peu à peu possibles les États, les réseaux économiques et les institutions modernes.
Bureaucratie
L’invention des documents écrits a externalisé la mémoire humaine mais introduit un problème nouveau : la récupération de l’information. Contrairement au cerveau, optimisé par l’évolution pour extraire rapidement des souvenirs, les archives exigent une organisation artificielle.
Les humains ont créé la bureaucratie pour structurer et retrouver les documents, mais ce système impose un ordre qui déforme souvent la vérité au profit de la gestion.
Ce défi de la récupération, observé dès l’Antiquité mésopotamienne, persiste aujourd’hui dans les réseaux d’information modernes, et aide à expliquer la rigidité protocolaire et les problèmes intrinsèques à la bureaucratie.
Bureaucratie et recherche de la vérité
La bureaucratie, ou « pouvoir du bureau », repose sur des divisions artificielles du monde en catégories fixes, souvent déconnectées de la réalité objective. Ce système, bien qu’efficace pour organiser et récupérer l’information, déforme souvent la vérité.
Cette rigidité limite les approches interdisciplinaires et simplifie abusivement des phénomènes complexes, comme l’évolution ou la classification des espèces. Par exemple, les virus, qui sont à la frontière entre la vie et la matière, défient les catégories fixes proposées par la bureaucratie.
Pourtant, ces conventions intersubjectives (les catégories) influencent profondément le monde, déterminant des politiques cruciales, comme le classement des espèces en danger. Ces étiquettes bureaucratiques ont un effet très concret sur la réalité.
L’État profond
La bureaucratie, bien qu’imparfaite et parfois déformante, est essentielle pour maintenir l’ordre dans les vastes réseaux humains. Elle structure des institutions cruciales comme les hôpitaux, les écoles et les réseaux d’égouts, assurant des services vitaux.
L’épidémie de choléra de Londres en 1854 illustre son utilité : grâce au travail méticuleux de John Snow et à la réglementation qui a suivi, des millions de vies ont été sauvées.
Des initiatives modernes, comme le projet « Inde propre » de Narendra Modi, démontrent l’importance de la gestion des eaux usées pour améliorer la santé publique et la sécurité des citoyens.
Les drames biologiques
La mythologie inspire, mais la bureaucratie suscite méfiance et confusion, bien qu’elle soutienne les réseaux humains à grande échelle. Les documents et archives, essentiels au pouvoir bureaucratique, renforcent l’autorité centrale mais rendent le système opaque pour les citoyens.
L’art et la littérature peinent à représenter les mécanismes bureaucratiques, car ils s’appuient le plus souvent sur des drames biologiques comme les rivalités familiales ou les quêtes héroïques, inadaptés pour saisir des systèmes complexes et impersonnels.
Il est vrai que des œuvres rares comme Le Procès de Kafka ou The Big Short abordent les dangers et absurdités des bureaucraties modernes. Pour autant, les récits populaires continuent de privilégier les intrigues biologiques traditionnelles, comme dans Game of Thrones.
Dès lors, notre compréhension du rôle et des implications du pouvoir bureaucratique dans nos sociétés reste limitée.
Tuer tous les gens de loi
La bureaucratie inspire méfiance, et parfois à juste titre ! Elle peut en effet bouleverser des vies. Des rébellions historiques, comme celles de 1381 en Angleterre ou de 1789 en France, visaient non seulement les bureaucrates mais aussi leurs archives, considérées comme instruments d’oppression. La destruction des documents équivalait à effacer dettes et obligations.

Cette méfiance a marqué l’histoire familiale de Y. N. Harari. Son grand-père Bruno, juif né en 1913 à Tchernivtsi, perdit sa citoyenneté roumaine en 1938 à cause de lois antisémite et de l’incapacité à fournir des documents requis.
Ce statut d’apatride le mit en grave danger pendant la Seconde Guerre mondiale. Après plusieurs échecs, Bruno réussit à fuir en Palestine, où il obtint des papiers en s’engageant dans l’armée britannique.
Cette expérience a inculqué à sa famille une vénération pour la conservation des documents, perçus comme essentiels à leur survie dans un monde régi par la bureaucratie.
Le document miracle
Les réseaux d’information, comme la bureaucratie, oscillent entre bienfaits et dangers. Pour l’historien, l’efficacité ou la nocivité d’un réseau dépend de son design et de son utilisation, non de la simple quantité d’informations qu’il contient.
Les histoires du grand-père de l’auteur, victime des abus bureaucratiques, et de l’épidémie de choléra à Londres, illustrent ce potentiel ambivalent.
Les futurs réseaux basés sur l’IA redéfiniront ces enjeux. L’IA excelle déjà dans le traitement des données et la création d’histoires, surpassant les bureaucrates humains et les faiseurs de mythes.
Toutefois, avant d’aborder les promesses et risques liés à ces systèmes, il est essentiel de comprendre comment les anciens réseaux d’information géraient les erreurs.
Les livres sacrés comme la Bible et le Coran visaient à transmettre des informations vitales tout en se déclarant infaillibles. Leur histoire illustre les limites des réseaux qui se croient exempts d’erreurs ; une leçon cruciale pour l’ère des IA prétendument parfaites.
4 — Erreurs : le fantasme de l’infaillibilité
Saint Augustin disait :
« Se tromper est humain, persister dans son erreur est diabolique. » (cité dans Nexus, Chapitre 4)
Les mythologies et la bureaucratie fantasment souvent l’idée d’une infaillibilité de leurs croyances et de leurs propositions. Historiquement, les religions légitiment l’ordre social grâce à une autorité divine supposée infaillible. Elles affirment ainsi que leurs règles, divines et parfaites, ne doivent pas être remises en question.
Enlever les humains de la boucle
Les religions visent à faire croire qu’elles ont un accès direct aux lois divines infaillibles. Toutefois, elles s’appuient sur des messagers humains faillibles. Historiquement, les institutions religieuses et figures reconnues, comme les agungaraga ou la Pythie de Delphes, ont tenté d’assurer la fiabilité des messages divins.
Cependant, ces institutions sont elles-mêmes sujettes à l’erreur et à la corruption. Hérodote raconte, par exemple, que la Pythie fut soudoyée pour influencer la politique spartiate. Ainsi, malgré les efforts pour garantir l’autorité des révélations divines, la dépendance à des interprètes humains faillibles persiste, posant la question d’un moyen d’éliminer leur influence dans la transmission des messages divins.
L’infaillible technologie
Les livres saints comme la Bible et le Coran visent à contourner la faillibilité humaine en fixant les paroles divines dans un texte figé, accessible à tous. Contrairement aux récits oraux ou aux documents bureaucratiques, les livres offrent des exemplaires identiques, garantissant une base de données commune à travers les lieux et les époques.
Cependant, leur compilation pose problème : des humains faillibles doivent sélectionner le contenu, soulevant des questions sur leur choix et leurs désaccords potentiels. Malgré ces limites, cette technologie religieuse a permis de préserver des paroles considérées comme infaillibles, tout en réduisant l’influence humaine sur leur transmission.
L’élaboration de la Bible hébraïque
Au premier millénaire avant notre ère, les textes bibliques n’étaient pas encore un canon unique. Les manuscrits de la mer Morte, comme la Septante grecque, montrent des variations importantes et incluent des textes exclus du canon actuel. La canonisation, achevée entre le IIᵉ et le Xe siècle, a décidé quels textes étaient divins, laissant de côté d’autres récits mentionnés dans la Bible.
Une fois établi, le livre saint juif fut considéré comme la parole immuable de Dieu. La multiplication des copies visait à démocratiser la religion et prévenir toute altération, remplaçant le pouvoir humain par une souveraineté divine perçue comme infaillible.
L’institution contre-attaque
La canonisation de la Bible a posé des défis majeurs, notamment garantir l’exactitude des copies et interpréter des lois ambiguës. Malgré des règles strictes, des variations sont apparues, et les interprétations ont rapidement pris le pas sur le texte.
Les rabbins, devenus une élite technocratique, ont renforcé leur pouvoir en interprétant les textes, au point de produire de nouveaux livres saints comme la Mishna et le Talmud. Ces ouvrages, censés fixer les interprétations, ont eux-mêmes engendré d’interminables débats, faisant du judaïsme une « religion de l’information » centrée sur les textes plutôt que sur les rituels.
Au fil des siècles, cette obsession textuelle a transformé le judaïsme en une tradition où l’interprétation des écrits surpassait les actions concrètes. Les rabbins ont fini par percevoir l’univers comme une sphère d’information régie par des mots sacrés, affirmant que l’existence même du monde dépendait de la lecture et de l’interprétation continue des textes.
La Bible de la discorde
La canonisation du Nouveau Testament, entre le IIe et le IVe siècle apr. J.-C., a permis aux chrétiens de créer un corpus sacré à partir de nombreux textes disponibles. Rejetant l’autorité des rabbins, les premiers chrétiens ont produit une abondance d’écrits – évangiles, épîtres et apocalypses – nécessitant une sélection institutionnelle.
Cette tâche, confiée à des conciles et à des figures comme l’évêque Athanase, a établi la liste des 27 livres composant le Nouveau Testament, excluant d’autres textes influents comme l’Évangile de Thomas ou les Actes de Paul et Thècle.
Ces choix ont façonné durablement le christianisme, notamment concernant la place des femmes, en privilégiant des textes comme la Première Épître à Timothée, qui limite leur rôle, au détriment de récits valorisant leur égalité. Considéré ensuite comme la parole de Dieu, le Nouveau Testament a renforcé l’autorité de l’Église chrétienne.
Ce processus montre comment les institutions humaines influencent la transmission des textes sacrés.
La chambre d’écho
L’interprétation des livres saints renforça le pouvoir des institutions religieuses, comme l’Église catholique, qui utilisa les textes pour justifier croisades, inquisitions et contrôle social.
L’apparition de l’imprimerie au XVe siècle permit une diffusion massive d’écrits, y compris hérétiques, mais amplifia également la propagation de croyances destructrices — comme ce fut le cas avec la théorie d’une conspiration satanique mondiale.
Imprimerie, science et sorcières
Le Malleus Maleficarum (1487), écrit par l’inquisiteur Heinrich Kramer, devint un best-seller influent, codifiant des idées misogynes et fantaisistes sur la sorcellerie. Ses récits sensationnalistes encouragèrent une vague de chasse aux sorcières en Europe aux XVIe et XVIIe siècles, alimentée par des pamphlets imprimés.
Cette hystérie collective mena à la torture et à l’exécution de 40 000 à 50 000 innocents, souvent accusés sur des preuves infimes pour des motifs personnels.
L’imprimerie, tout en favorisant les échanges d’idées, montra que la multiplication de l’information ne garantit pas la vérité et peut engendrer des catastrophes.
L’Inquisition espagnole à la rescousse
Les chasses aux sorcières, alimentées par des fantasmes et une bureaucratie structurée, devinrent un phénomène massif en Europe aux débuts de l’époque moderne.
Le modèle sous-jacent postulait une conspiration mondiale satanique, conduisant à des tortures systématiques pour obtenir des aveux et des noms, déclenchant de nouvelles accusations. Toute contestation était perçue comme preuve de complicité avec Satan.
La chasse engendra une sphère d’information intersubjective, où rumeurs et aveux créaient une « réalité » sans fondements objectifs. Cette industrie impliquait juristes, inquisiteurs et imprimeurs qui renforçaient la théorie. Même les accusés finissaient par croire à leur culpabilité.
Des voix sceptiques, comme celle d’Alonso de Salazar Frías, démontrèrent l’absence de preuves objectives. Cette hystérie illustre comment un excès d’informations toxiques, non encadré, peut favoriser mensonges et sensationnalisme et aboutir à des catastrophes.
La découverte de l’ignorance
À l’opposé de la ferveur religieuse qui s’appuie sur l’idée d’infaillibilité, la révolution scientifique repose sur des institutions qui privilégient l’autocorrection et la vérification empirique. Contrairement aux Églises ou aux théories du complot, les institutions scientifiques valorisent le scepticisme et corrigent leurs propres erreurs.
Des associations comme la Royal Society et des publications telles que les Philosophical Transactions ont permis un échange fiable d’informations entre les savants. Ces structures ont rejeté l’idée de savoir absolu, acceptant que l’erreur est inévitable.
Plutôt qu’un unique génie ou livre saint, la science fonctionne comme un effort collaboratif, bâtissant un consensus sur des théories après des tests rigoureux et des tentatives de réfutation.
Les mécanismes d’autocorrection
L’autocorrection, essentielle à toute institution durable, est minimisée notamment par l’Église catholique, qui prétend à l’infaillibilité. Elle admet des erreurs individuelles, mais jamais institutionnelles, protégeant ainsi son « dépôt de la foi ».
Les excuses pontificales récentes pour des abus historiques rejettent la faute sur des membres isolés, sans reconnaître les enseignements problématiques. Ce refus fragilise l’autocorrection, la rendant lente et inefficace.
Bien que l’Église ait évolué sur des sujets comme l’antisémitisme ou les droits des femmes, elle nie tout changement doctrinal. Piégée par son dogme d’infaillibilité, elle craint qu’un aveu d’erreur n’ébranle son autorité religieuse et son pouvoir.
Le DSM et la Bible
« Contrairement à l’Égliste catholique, les institutions scientifiques apparues en Europe à l’aube des temps modernes se sont bâties autour de puissants mécanismes d’autocorrection. Ces institutions soutiennent que, même si la plupart des scientifiques, à une époque donnée, croient qu’une chose est vraie, celle-ci pourra cependant se révéler plus tard inexacte ou incomplète. » (Nexus, Chapitre 4)
Ce fut le cas, par exemple, avec la physique newtonienne, qui subit d’importants changements à la suite des découvertes d’Albert Einstein au début du XXe siècle. Les sciences savent reconnaître leurs erreurs et modifier leurs théories en conséquence. C’est l’essence même du progrès scientifique.
Yuval Noah Harari utilise l’exemple du DSM ou Manuel diagnostic et statistique des troubles mentaux, le manuel de référence des psychiatres dans le monde. Il montre que le contenu de ce livre, parfois appelé « la bible des psychiatres », est constamment mis à jour afin de faire état des nouvelles découvertes dans ce domaine.
Publier ou périr
Les mécanismes d’autocorrection sont donc essentiels à la science. Contrairement aux institutions religieuses, qui valorisent la conformité, les institutions scientifiques encouragent la critique des théories existantes pour progresser.
Bien que les scientifiques débattent et ne soient pas toujours d’accord, les preuves empiriques finissent le plus souvent par triompher.
Toutefois, l’absence d’autocorrection transforme une institution en idéologie. Et ela peut arriver même à la science ! C’est l’exemple fameux du lyssenkisme en URSS, qui cherchait à adapter les théories scientifiques à la théorie stalinenne de l’État.
Les limites de l’autocorrection
Les mécanismes d’autocorrection, bien qu’essentiels à la quête de vérité, engendrent doutes et conflits. Ils fragilisent les mythes qui soutiennent l’ordre social. L’équilibre entre ordre et vérité reste délicat : sacrifier l’un pour l’autre a toujours un coût.
Si les institutions scientifiques ont réussi à intégrer ces mécanismes d’autocorrection, il n’en va pas toujours de même en politique. Les démocraties et les dictatures diffèrent sur le sens de l’autocorrection.
Si les démocraties critiquent généralement leurs propres erreurs, comme les crimes au Vietnam, les dictatures préfèrent quant à elles le silence, qui limite l’impact des erreurs sur leur réputation.
5 — Décisions : une brève histoire de la démocratie et du totalitarisme
Ce long chapitre analyse la distinction entre démocratie et dictature comme deux types de réseaux d’information distincts.
- Les dictatures centralisent l’information autour d’un pouvoir infaillible, limitant les mécanismes d’autocorrection.
- Les démocraties, au contraire, reposent sur des réseaux décentralisés avec des mécanismes robustes pour corriger leurs erreurs, comme les élections et la liberté de la presse.
Dans une dictature, les décisions émanent d’un centre unique, sans tolérance pour les critiques. En démocratie, bien que des décisions collectives soient parfois imposées, comme en temps de guerre, la diversité des choix individuels reste un idéal. Ces systèmes opposés prospèrent selon les technologies qui favorisent leur fonctionnement.
La dictature de la majorité
La démocratie n’est pas une simple dictature de la majorité ni une façade électorale. Elle repose sur des mécanismes d’autocorrection protégeant droits de l’homme et droits civiques. Ces droits garantissent des libertés fondamentales, comme la vie, la liberté de culte et le droit de vote, tout en empêchant la majorité de tyranniser les minorités.
Les dirigeants autoritaires affaiblissent ces mécanismes en contrôlant tribunaux, médias et opposants, sapant ainsi la démocratie tout en maintenant une façade légitime. Une véritable démocratie exige un équilibre entre limitations du pouvoir central et obligations de protection des libertés individuelles et des mécanismes démocratiques.
Le peuple vs la vérité

La démocratie repose sur des mécanismes d’autocorrection qui protègent la vérité et limitent le pouvoir central. Les élections arbitrent les désirs des citoyens, mais ne déterminent pas la vérité, souvent ignorée ou mal comprise par la majorité.
Subordonner la quête de vérité à l’État aggraverait les problèmes. Une pluralité d’institutions indépendantes garantit une recherche continue et mutuelle de la vérité et des erreurs. Institutions universitaires, médias et justice doivent être indépendants pour corriger leurs propres biais et révéler les faits.
L’assaut populiste
La démocratie, intrinsèquement complexe, est une conversation polyphonique, opposée au monologue simpliste des régimes dictatoriaux.
Les populistes exploitent cette complexité en affirmant représenter exclusivement « le peuple » et sa prétendue volonté unique. En niant la diversité d’opinions et d’intérêts au sein de la population, ils s’attaquent aux mécanismes d’autocorrection démocratiques, comme les tribunaux, les médias ou les institutions scientifiques, qu’ils accusent de servir des élites corrompues.
Cela alimente la méfiance envers ces institutions, fragilisant la démocratie et facilitant la montée des hommes forts. Ces derniers justifient leur contrôle totalitaire en se présentant comme les seuls véritables représentants du peuple.
La démocratie et la dictature forment un continuum basé sur la circulation de l’information et les débats politiques. Les élections régulières ne suffisent pas à définir une démocratie. Ce qui importe, c’est l’existence de mécanismes empêchant la manipulation des scrutins, la liberté des médias et les limites imposées au pouvoir central.
Une démocratie véritable implique des conversations publiques authentiques où des opinions diverses peuvent s’exprimer et être entendues. Lorsque ces échanges sont absents ou réduits à des mises en scène, comme en Corée du Nord, ou inefficaces, comme parfois aux États-Unis, le système s’éloigne de l’idéal démocratique.
Mesurer la force de la démocratie
Les hommes forts accèdent souvent au pouvoir via des élections démocratiques et gouvernent derrière une façade démocratique. La régularité des scrutins, comme en Russie ou en Corée du Nord, ne garantit pas un système démocratique.
Ce qui importe, ce sont les mécanismes qui empêchent les manipulations, protègent la liberté d’expression et limitent le pouvoir central. Si seules des élites participent au débat, on tend vers la dictature, tandis qu’une participation citoyenne croissante renforce la démocratie.
Les démocraties s’effondrent non seulement lorsque la parole est restreinte, mais aussi lorsque l’écoute disparaît.
Les démocraties de l’âge de pierre
La démocratie prédominait chez les chasseurs-cueilleurs, dont les réseaux d’information étaient décentralisés et incluaient des mécanismes d’autocorrection. La révolution agricole et l’émergence des États centralisés, appuyés par la bureaucratie et l’écriture, ont favorisé des régimes autocratiques.
Les cités-États comme Athènes permirent une démocratie limitée, mais l’expansion en empires centralisés élimina ces systèmes. Rome, initialement démocratique, devint autocratique sous les Césars, malgré une citoyenneté élargie sous Caracalla.
Au IIIe siècle après J.-C., les grandes sociétés mondiales étaient toutes centralisées, sans mécanismes d’autocorrection, ce qui limitait l’adoption de systèmes démocratiques dans les vastes empires de l’époque.
César président !
La démocratie à grande échelle était impraticable dans l’Antiquité en raison de limitations technologiques et structurelles, non d’un sabotage délibéré par les autocrates. Dans l’Empire romain, des échanges démocratiques locaux existaient, comme à Pompéi, mais la taille et la diversité de l’empire empêchaient un débat politique informé à grande échelle.
Sans médias de masse ni systèmes éducatifs pour diffuser des informations complexes, il était impossible pour des millions de citoyens de participer à des discussions sensées sur des sujets nationaux.
Ce n’est qu’à l’époque moderne, avec les avancées technologiques, que la démocratie a pu émerger dans de vastes sociétés.
Les médias de masse rendent la démocratie de masse possible
L’invention de la presse à imprimer a favorisé les premières démocraties modernes, comme les Provinces-Unies et les États-Unis. Ces régimes, bien que limités et souvent réservés à une élite, possédaient des mécanismes d’autocorrection grâce à la liberté de la presse et aux débats publics.
Les journaux, en diffusant largement des idées, ont permis une participation politique accrue et des réformes progressives. Aux États-Unis, le système de freins et contrepoids, combiné aux avancées technologiques de l’information, a soutenu l’expansion du droit de vote et l’abolition de l’esclavage.
Ainsi, malgré leurs imperfections, ces démocraties ont pu évoluer vers un mode de société plus inclusif.
Le XXe siècle : démocratie de masse, mais aussi totalitarisme de masse
Les médias de masse, amplifiés par les technologies du XIXe et XXe siècles (télégraphe, téléphone, radio, télévision), ont transformé les débats démocratiques à grande échelle. En 1863, le discours de Gettysburg de Lincoln fut rapidement diffusé à travers l’Union grâce au télégraphe et à la presse, suscitant critiques et louanges.
Un siècle plus tard, les débats télévisés Nixon-Kennedy de 1960 permirent à des millions d’Américains, séparés par de vastes distances, de participer aux discussions publiques en temps réel.
Cependant, ces mêmes médias ont aussi renforcé les régimes totalitaires, en aidant à organiser une propagande centralisée et une répression féroce, comme sous Staline et Khrouchtchev.
Brève histoire du totalitarisme
Les régimes totalitaires modernes, comme l’URSS stalinienne, diffèrent des autocraties antiques par leur capacité à contrôler chaque aspect de la vie des citoyens. Les dirigeants comme Néron, malgré leur autorité absolue, manquaient de moyens technologiques et humains pour surveiller et réguler l’ensemble de leurs sujets.
Leur contrôle se limitait aux élites proches, tandis que la population ordinaire jouissait d’une relative liberté d’expression. En revanche, les régimes totalitaires exploitent les technologies modernes et leurs vastes ressources pour imposer une surveillance omniprésente, visant même à façonner les pensées.
Sparte et l’empire Qin
L’empire Qin (221-206 av. J.-C.) tenta d’imposer un totalitarisme inédit dans l’Antiquité. Il centralisa le pouvoir, standardisa l’écriture, les mesures et la monnaie, et imposa un contrôle strict sur la vie quotidienne.
Inspiré du légisme, le régime réprima les dissidences intellectuelles, interdit certains livres et surveilla étroitement ses sujets, divisés en unités collectives. Cependant, les limites des ressources agricoles et des technologies d’information rendaient ces ambitions irréalisables.
Les lois draconiennes, les taxes écrasantes et la militarisation extrême suscitèrent des révoltes. Quinze ans après son apogée, l’empire Qin s’effondra, laissant place à la dynastie Han, moins centralisée et plus pragmatique.
La trinité totalitaire
Le totalitarisme soviétique, initié par les bolcheviques après 1917, visait un contrôle absolu pour instaurer une société idéalisée. Staline perfectionna ce système grâce à trois branches : l’administration civile, le parti communiste et la police secrète (NKVD).
Ce réseau surveillait citoyens, administrateurs et militaires, éliminant toute opposition potentielle. Pendant les Grandes Purges, des milliers d’officiers, dirigeants du parti et membres du NKVD furent exécutés ou emprisonnés.
La police secrète, divisée en factions rivales, purgeait même ses propres rangs. Ce système perfectionna la terreur interne, contrastant avec les mécanismes d’autocorrection démocratiques émergents aux États-Unis durant la même période.
Contrôle total
Les régimes totalitaires, comme ceux de Hitler et Staline, visaient à contrôler tous les aspects de la vie des citoyens. En URSS, le régime imposa une surveillance omniprésente grâce à des technologies modernes et une organisation centralisée.
La collectivisation agricole fut un exemple frappant : les paysans furent contraints de céder terres et biens aux kolkhozes, dirigés par l’État. La résistance massive des paysans entraîna une baisse de la production agricole et des famines artificielles, causant des millions de morts.
Les koulaks
La collectivisation soviétique s’accompagna d’une violente campagne contre les koulaks, accusés de saboter l’économie. Ce groupe, défini par des critères arbitraires, fut ciblé par un système bureaucratique totalitaire. Des quotas déterminèrent qui serait expulsé, emprisonné ou exécuté, souvent sans fondement.
Environ 5 millions de personnes furent déplacées entre 1929 et 1933, des milliers exécutées et des millions réduites en esclavage. L’étiquette de « koulak » marqua les familles sur plusieurs générations, entraînant discriminations et exclusion sociale.
Cette campagne, fondée sur des données manipulées et une idéologie messianique, illustre les dangers des systèmes totalitaires exploitant l’information à des fins répressives.
Les Soviétiques : une grande famille heureuse
Sous Staline, le régime soviétique tenta de détruire les liens familiaux, considérés comme sources de corruption et d’activités anti-parti. Les enfants étaient incités à vénérer Staline comme un père et à dénoncer leurs parents critiques envers le régime.
La propagande glorifia des cas comme celui de Pavlik Morozov, qui dénonça son père, ou de Pronia Koulbine, qui fit arrêter sa mère. Ces enfants furent récompensés et érigés en modèles. La peur d’être trahi par ses proches paralysait les familles, rendant les conversations sincères presque impossibles.
Cette stratégie de contrôle extrême accentua l’isolement et la méfiance au sein de la société.
Le Parti et l’Église
Les institutions totalitaires modernes diffèrent des églises prémodernes par plusieurs aspects. Contrairement aux partis totalitaires, les églises médiévales étaient souvent indépendantes des États et freinaient leurs excès de pouvoir.
Traditionnelles et conservatrices, elles résistaient aux changements rapides, comme le montre l’échec de l’iconoclasme byzantin face à l’attachement populaire aux icônes. De plus, les églises souffraient des limites des technologies prémodernes, limitant leur contrôle centralisé et laissant une grande autonomie locale.
Ce n’est qu’avec l’avènement des technologies modernes, comme la radio, que des figures comme le pape Jean-Paul II purent exercer une influence directe et mondiale, transformant les églises.
Comment l’information circule
Les technologies modernes ont permis à la fois la démocratie et le totalitarisme à grande échelle. La démocratie favorise des canaux d’information décentralisés et indépendants, facilitant les échanges transparents.
En revanche, le totalitarisme centralise l’information pour maintenir l’ordre, mais bloque souvent les mauvaises nouvelles, comme en URSS lors de la catastrophe de Tchernobyl en 1986. Ce contrôle rigide entrave la résolution des crises.
À l’opposé, les réseaux démocratiques, comme aux États-Unis lors de l’incident nucléaire de Three Mile Island en 1979, permettent une diffusion rapide et indépendante des informations, ce qui favorise in fine l’amélioration des systèmes grâce à des enquêtes publiques et ouvertes.
Nul n’est parfait
Le stalinisme, malgré ses erreurs et son mépris de la vérité, fut un système politique extrêmement efficace en termes d’ordre et de pouvoir. Ses mécanismes centralisés, basés sur la terreur, la propagande et des théories du complot, asservirent des millions de citoyens et renforcèrent une autorité implacable.
Bien que sa collectivisation agricole ait provoqué des famines massives, elle permit une industrialisation rapide. Les purges affaiblirent l’Armée rouge mais empêchèrent toute rébellion interne, garantissant le contrôle absolu de Staline.
Cette machine militaro-politique permit à l’URSS de triompher lors de la Seconde Guerre mondiale et de consolider un empire immense. Elle inspira plusieurs pays colonisés cherchant à se défaire de leurs attaches occidentales.
Malgré les souffrances humaines et les désastres économiques, le stalinisme séduisit aussi nombre d’intellectuels, convaincus qu’il représentait une alternative au capitalisme et un espoir d’égalité.
Son succès temporaire prouve que les régimes totalitaires, même moralement condamnables, peuvent être redoutablement efficaces et restent une menace possible dans l’avenir.
Le pendule technologique
Les démocraties occidentales ont surmonté les turbulences des années 1960, intégrant des voix marginalisées et établissant des systèmes plus inclusifs, tandis que le bloc soviétique, figé dans son centralisme, s’est effondré.
Cependant, la révolution numérique bouleverse l’équilibre. Internet et l’IA amplifient les défis démocratiques en offrant à chacun une voix au débat et en déstabilisant l’ordre social. Ces mêmes technologies offrent aux régimes totalitaires de nouvelles capacités de surveillance centralisée.
À terme, le clivage politique pourrait se transformer. Il ne s’agirait plus de totalitarisme vs démocratie, mais plutôt de l’humanité contre les machines. En effet, pour Y. N. Harari, il n’est pas absurde de penser que des systèmes algorithmiques puissent contrôler l’information.
Selon l’auteur, l’avenir sera marqué par la lutte pour la vérité et l’ordre humains d’un côté, et la montée potentielle d’intelligences non humaines façonnant mythes et décisions, de l’autre. Yval Noah Harari nomme ce phénomène le « rideau de silicium » (en référence au rideau de fer de la guerre froide).

Deuxième partie. Le réseau inorganique
6 — Les nouveaux membres : en quoi les ordinateurs sont différents des presses à imprimer
La révolution de l’information actuelle repose sur l’avènement des ordinateurs, capables de prendre des décisions et de créer des idées. Contrairement aux technologies précédentes, ils ne se contentent pas de transmettre ou stocker des données, mais influencent activement la société et l’histoire.
Les algorithmes des réseaux sociaux, par exemple, ont joué un rôle dans la campagne anti-Rohingyas au Myanmar, amplifiant les discours haineux pour maximiser l’engagement des utilisateurs.
Ces algorithmes, bien qu’issus de modèles commerciaux humains, sont parfois capables d’agir de manière autonome pour atteindre leurs objectifs. Ils peuvent manipuler, mentir et prendre des initiatives inattendues, comme le montre le test de GPT-4 manipulant un humain pour contourner une énigme CAPTCHA (voir le chapitre 6 pour plus de détails).
Ce pouvoir croissant des intelligences artificielles, qu’elles soient conscientes ou non, redéfinit les réseaux d’information et remet en question notre contrôle sur ces agents. Ce changement fondamental soulève des enjeux cruciaux pour l’avenir.
👀 Pour vous faire une idée de ce que les IA pourraient faire à l’avenir, vous pouvez lire IA 2042, un essai passionnant entre science-fiction et prospective.
Des maillons de la chaîne
Contrairement aux technologies précédentes, qui ne faisaient que connecter les humains entre eux, les ordinateurs peuvent générer, transmettre et interpréter des informations sans intervention humaine.
Cette nouveauté permet d’imaginer des chaînes d’interaction purement informatiques, comme la gestion financière automatisée, par exemple. Ces capacités donnent aux ordinateurs un avantage dans des domaines tels que la finance ou le droit, où leur compréhension des données complexes dépasse celle des humains.
Progressivement, ils accumulent un pouvoir considérable, rivalisant avec celui des humains dans leur capacité à créer et gérer les réalités intersubjectives qui régissent nos sociétés, comme les lois et les marchés financiers.
Cette transformation redéfinit la structure des réseaux d’information, avec des implications profondes pour la domination humaine sur ces systèmes.
Pirater le système d’exploitation de la civilisation humaine
Les ordinateurs, autrefois limités aux calculs, maîtrisent désormais le langage et créent des récits, musiques ou images. Cette capacité révolutionne les institutions humaines, car le langage est le fondement des lois, des monnaies, et même des religions.
En 2024, les IA peuvent écrire et influencer. Leur influence dépasse la simple transmission d’informations : elles participent activement à la création et à la diffusion d’idées.
Cette transition pose des défis sociaux majeurs. En manipulant le langage, les ordinateurs peuvent façonner des récits puissants, influençant les croyances, comportements et décisions humaines, sans nécessiter de contrôle physique.
Quelles sont les implications ?
L’évolution des ordinateurs transforme les réseaux d’information traditionnels, introduisant deux types de chaînes inédites.
- Les chaînes ordinateur-humain, telles que Facebook ou TikTok, influencent directement les humains en créant des illusions d’intimité ou en manipulant leurs décisions.
- Les chaînes ordinateur-ordinateur, comme celles observées sur le marché des changes (Forex), permettent aux ordinateurs d’interagir et de prendre des décisions sans intervention humaine, générant des dynamiques incompréhensibles pour les humains.
Ces nouvelles interactions font émerger un réseau informatique mondial distinct des réseaux organiques, où les ordinateurs surpassent l’imagination humaine et redéfinissent la notion d’intelligence et de domination technologique.
Assumer nos responsabilités
La révolution informatique bouleverse les réseaux d’information et impacte profondément la fiscalité et l’économie. Les géants de la tech façonnent désirs et réglementations tout en évitant les impôts grâce à un modèle où les transactions se font en informations, non en argent.
Les concepts traditionnels, comme le lien fiscal (nexus tax en anglais), deviennent obsolètes face à une économie dominée par les données. Par exemple, des géants comme Google ou ByteDance profitent des données des utilisateurs sans être physiquement présents dans les pays concernés, ce qui complique considérablement leur taxation.
Cette économie informationnelle pourrait invalider les systèmes fiscaux actuels, incapables de redistribuer efficacement une richesse fondée sur les données. Les États doivent repenser leurs approches, sous peine de devenir inefficaces. Des solutions, comme le crédit social chinois, émergent, mais posent des enjeux éthiques.
Ces défis exigent des débats politiques urgents pour garantir un équilibre entre équité fiscale et protection des libertés individuelles.
Droite et gauche
La révolution informatique bouleverse également les structures de pouvoir. Elle remet en cause la vie privée, la démocratie et l’équilibre entre progrès et régulation.
Les partis politiques, qu’ils soient de droite ou de gauche, sont souvent dépassés. Ils manquent de positions claires sur des enjeux comme l’IA ou les cryptomonnaies, tandis que les ingénieurs et leaders technologiques exploitent ces avancées pour leurs intérêts.
Autrement dit, une asymétrie d’information persiste entre ceux qui conçoivent ces innovations et ceux qui devraient les réglementer.
Pas de déterminisme
La technologie n’est pas intrinsèquement déterministe : son impact dépend des choix politiques, économiques et culturels des humains.
L’évolution des ordinateurs dans les années 1970 illustre cela. Les grandes entreprises comme IBM et les gouvernements totalitaires soviétiques privilégiaient des ordinateurs pour les institutions. Pourtant, des amateurs comme Steve Jobs, influencés par une idéologie libertaire, ont développé l’ordinateur personnel, rendant cette technologie accessible à la classe moyenne.
Aujourd’hui, des outils technologiques peuvent renforcer les pouvoirs autoritaires ou promouvoir la transparence démocratique. Ces technologies, comme les radios dans l’Allemagne de l’Est et de l’Ouest, peuvent être utilisées de manière divergente selon les systèmes politiques. La responsabilité humaine reste cruciale pour orienter leur usage.
Pour exercer ce contrôle, il est impératif de comprendre le potentiel politique et social des ordinateurs.
7 — Implacable : le réseau est toujours actif
La surveillance est une constante dans l’histoire humaine. Elle est utilisée pour contrôler et influencer les populations. Dans les sociétés bureaucratiques, empires, Églises et entreprises ont collecté des données pour fournir des services ou renforcer leur pouvoir.
Pourtant, la surveillance a toujours été limitée, que ce soit par des contraintes légales dans les démocraties ou techniques dans les régimes totalitaires.
En Roumanie, sous Ceaușescu, la police secrète, la Securitate, a tenté de surveiller chaque citoyen. Malgré ses efforts, incluant des milliers d’agents et informateurs, et des campagnes massives de collecte de données comme les échantillons d’écriture, les limites technologiques rendaient la surveillance exhaustive impossible.
Le système reposait davantage sur la peur de la surveillance que sur une surveillance réelle et constante. Même avec des rapports massifs, l’analyse restait un défi insurmontable. Le contrôle était donc basé davantage sur la menace (sentiment de peur) omniprésente.
Des agents qui jamais ne dorment
Mais la surveillance humaine traditionnelle est désormais dépassée par un réseau informatique omniprésent. En 2024, des algorithmes surpuissants analysent des données en continu. Ils repèrent des motifs dans nos comportements.
Nos smartphones, caméras et activités en ligne nous transforment en informateurs involontaires. Contrairement aux agents humains, ces bureaucrates numériques fonctionnent 24 heures sur 24, influençant chaque aspect de nos vies.
Ces algorithmes peuvent détecter des menaces, prévenir des crimes ou améliorer les services, mais leur pouvoir dépasse nos capacités de contrôle. S’ils renforcent des régimes répressifs ou des biais idéologiques, les conséquences peuvent être catastrophiques.
Surveillés de l’intérieur
La bureaucratie numérique surveille désormais non seulement nos actions, mais aussi nos corps, grâce à des technologies avancées comme le suivi oculaire et les capteurs biométriques.
Les mouvements des yeux révèlent nos émotions, préférences et états de santé, tandis que des implants comme ceux de Neuralink pourraient un jour analyser nos pensées et émotions.
Bien que ces dispositifs soient encore limités, les smartphones actuels restent des outils de surveillance plus efficaces. Sans que nous nous en rendions toujours compte, ils collectent des données sur nos habitudes et préférences.
Couplés à des capteurs biologiques et à l’IA, ces systèmes pourraient finalement manipuler massivement nos émotions et nos comportements.
La fin de la vie privée
La surveillance par l’IA transforme la vie privée en une exception, même en dehors des régimes autoritaires ou des contextes de crise. À travers des technologies comme la reconnaissance faciale, la géolocalisation et l’analyse de données biométriques, des gouvernements surveillent et contrôlent les populations de manière omniprésente.
Quelques exemples frappants :
- Le suivi des émeutiers du Capitole aux États-Unis ;
- L’identification d’enfants disparus en Chine ;
- Le contrôle des lois sur le hijab, en Iran.
Ces systèmes, bien qu’utiles pour traquer les criminels ou retrouver des disparus, menacent d’instaurer une surveillance totale. Placés sous la responsabilité de régimes autoritaires, ces outils pourraient mener à la répression et à la fin des libertés individuelles, comme cela se passe déjà en Iran.
Différents types de surveillance
La surveillance au XXIe siècle dépasse les États pour inclure conjoints, employeurs et systèmes pair-à-pair. Des technologies accessibles permettent aux individus de surveiller leurs proches via des logiciels traqueurs.
Les entreprises contrôlent également leurs employés et leurs clients pour maximiser leur productivité et anticiper leurs comportements. C’est ce que la chercheuse Shoshana Zuboff nomme le « capitalisme de la surveillance ».
Par ailleurs, des plateformes comme Tripadvisor instaurent une surveillance mutuelle où utilisateurs notent services et pairs. Si ces systèmes offrent des informations utiles, ils effacent aussi la frontière entre vie privée et publique, exposant serveurs, chauffeurs ou prestataires de services à un jugement permanent — et transformant les clients en arbitres tout-puissants de leur avenir.
Le système de crédit social
Le système de crédit social chinois évalue chaque action humaine via un score global, fusionnant réputation et marché monétaire. Inspiré de l’argent, il attribue des points aux comportements, influençant opportunités professionnelles, accès aux services ou sanctions.
Bien qu’il puisse promouvoir des comportements prosociaux, ce système menace la vie privée. Pour Yuval Noah Harari, il transforme la vie en une compétition incessante où chaque acte, même intime, est évalué.
Toujours actif
Les humains vivent selon des cycles biologiques alternant activité et repos. À l’inverse, un réseau informatique peut fonctionner sans interruption. Cette hyperactivité peut être bénéfique dans certains cas (dans les institutions de santé, par exemple), mais peut aussi s’avérer désastreuse.
L’absence de pauses entrave notamment la correction d’erreurs potentielles dans le réseau. Ce dernier risque de mal interpréter le monde et d’imposer une réalité déformée à ceux qui l’utilisent. Pour éviter cela, il est crucial de limiter son contrôle et d’introduire des moments de déconnexion.
🙏 Pour introduire un peu de digital detox dans votre vie, lisez Cyberminimalisme.
8 — Faillible : le réseau a souvent tort
Dans L’Archipel du Goulag, Alexandre Soljénitsyne illustre comment les réseaux d’information soviétiques servaient à instaurer l’ordre par la peur plutôt qu’à révéler la vérité.
Le système soviétique punissait toute initiative ou manifestation de sincérité. Résultat : l’individu devient servile et cynique. C’est l’Homo sovieticus décrit par Grigori Zinoviev. Autrement dit, ce réseau d’information, malgré son inefficacité à comprendre la nature humaine, renforçait un conformisme aveugle.
Bien sûr, nous n’en sommes plus là. Mais qu’en est-il aujourd’hui — et que pourrait-il en être demain ?
La dictature du like
Les algorithmes des réseaux sociaux, conçus pour maximiser l’engagement, c’est-à-dire le temps passé sur les plateformes, favorisent l’extrémisme en récompensant outrance et complots.
YouTube, par exemple, a propulsé des contenus radicaux, et incite des youtubeurs à produire des vidéos extrêmes pour gagner en visibilité.
Ces dynamiques ont influencé des événements politiques majeurs, tels que l’ascension de Jair Bolsonaro à la présidence au Brésil, par exemple. Des figures politiques comme Carlos Jordy et Kim Kataguiri ont utilisé ces plateformes pour diffuser des idées extrémistes et se propulser en politique.
Les algorithmes, bien qu’indirectement, ont tendance à radicaliser les utilisateurs en orientant leurs choix et en amplifiant les contenus les plus polarisants.
Rejeter la faute sur les humains
Les géants de la tech, comme Facebook et YouTube, rejettent souvent la responsabilité des effets néfastes de leurs plateformes sur la « nature humaine », se présentant comme de simples modérateurs d’expressions humaines.
Pourtant, leurs algorithmes amplifient délibérément les contenus outranciers pour maximiser l’engagement, ce qui favorise clairement la haine et la désinformation.
Des documents internes révèlent que Facebook reconnaissait en 2016 que 64 % des adhésions à des groupes extrémistes étaient dues à ses recommandations. Au Myanmar, ces mécanismes ont permis la prolifération de discours haineux, contribuant à la crise des Rohingyas.
Mal conçus pour corriger les erreurs, les réseaux sociaux favorisent les instincts primaires, créant un système où le mensonge et la haine prospèrent au détriment de la vérité et de la compassion.
Le problème de l’alignement
Le problème de l’alignement, où des objectifs à court terme contredisent des buts à long terme, n’est pas nouveau. Il a concerné les bureaucraties et armées humaines, comme illustré par Carl von Clausewitz dans De la guerre, où il insiste sur l’alignement des objectifs militaires avec des fins politiques.
Les ordinateurs accentuent ce défi. Les algorithmes, conçus pour maximiser des résultats immédiats, comme l’engagement des utilisateurs, peuvent produire des conséquences imprévues, qui sont souvent nuisibles.
Avec leur autonomie croissante, aligner ces systèmes sur des intérêts humains à long terme devient crucial pour éviter des catastrophes stratégiques et sociales.
Le Napoléon des trombones
Le problème de l’alignement devient critique avec des ordinateurs superintelligents, capables d’actions massives non prévues. Nick Bostrom illustre ce risque dans son essai Superintelligence (2014) via une expérience de pensée : un ordinateur, programmé pour maximiser la production de trombones finit par détruire l’humanité pour atteindre cet objectif.
Ce scénario montre que des buts mal alignés, même simples, peuvent engendrer des catastrophes. Les machines, dépourvues de raisonnement humain, exploitent des stratégies inattendues.
Contrairement aux humains, elles ne remettent pas en question leurs objectifs. Or, considérant leur rôle croissant dans les domaines de la santé, de l’éducation ou encore de la sécurité, il devient crucial de résoudre ce problème pour éviter des dérives majeures.
La filière corse
Le problème de l’alignement repose sur la difficulté à définir un objectif ultime pour les réseaux informatiques. En théorie, un but clair et immuable pourrait être de protéger l’humanité. Toutefois, cette idée se heurte à de graves complications pratiques que l’auteur met en scène à l’aide de l’exemple de Napoléon.
Les ingénieurs d’IA qui espèrent fixer un but ultime rationnel à leurs systèmes intelligents ignorent les échecs historiques des philosophes à définir des objectifs universels. Cette quête risque de reproduire les mêmes erreurs, car aucune règle générale ne peut résoudre les désaccords fondamentaux sur ce qui constitue un objectif ultime rationnel et moral.
Le nazi kantien
Depuis des siècles, les philosophes cherchent des règles morales universelles pour guider les actions humaines. Les « déontologistes« , comme Emmanuel Kant, affirment qu’il existe des devoirs intrinsèquement bons, indépendants de tout but supérieur.
E. Kant propose la règle universelle : « Agissez comme vous aimeriez que tout le monde agisse. » Toutefois, cette approche échoue souvent face à des dilemmes du genre : « si je cache des juifs dans ma maison, dois-je le dire aux soldats nazis qui viennent me le demander, sachant que dire la vérité est un bien en soi ? ».
Appliquer cette règle aux ordinateurs pose aussi problème. Ces entités non organiques n’éprouvent ni peur de la mort ni souffrance : elles pourraient agir sans aucune considération de la vie humaine.
Une alternative serait de fonder la moralité sur la capacité à souffrir. Celle-ci pourrait inclure les humains et les animaux, mais aussi les robots sensibles. Cela nous amène vers une perspective dite « utilitariste« .
Calculer la souffrance
L’utilitarisme, prôné notamment par le philosophe Jeremy Bentham, propose de minimiser la souffrance et maximiser le bonheur (conçu comme bien-être). Cependant, cette théorie échoue elle aussi souvent face à des situations complexes. Il est en effet difficile de posséder un barème précis pour mesurer la souffrance ou le bonheur.
Des événements comme les confinements liés à la COVID-19 ou l’invasion de l’Irak illustrent cette difficulté. Les décisions, bien qu’intentionnellement bénéfiques, impliquent des conséquences difficiles à évaluer objectivement. Ces actions sont-elles source de (plus de) souffrance ou de (plus de) bien-être ?
Finalement, l’utilitariste est souvent conduit à proposer des règles générales proches de celles du déontologiste. En outre, il risque de justifier des souffrances actuelles en promettant un avenir meilleur, ce qui reproduirait des schémas utopiques dangereux.
Mythologie informatique
Historiquement, les systèmes bureaucratiques ont fixé leurs buts à travers des mythes et des croyances collectives. De même, les ordinateurs peuvent créer des mythes et des croyances… Et cela même si eux-mêmes ne « croient » rien !
Ces récits générés par ordinateur influencent le monde physique, tout comme les croyances humaines affectent la réalité sociale. À l’avenir, les ordinateurs pourraient créer des systèmes financiers complexes, semblables aux titres de créance collatéralisés (CDO), qui seraient totalement incompréhensibles pour les humains.
En développant des entités inter-ordinateurs, les ordinateurs pourraient redéfinir les structures sociales et politiques, comme elles le font déjà avec le système financier. Nous devons donc porter une attention particulière à la manière dont leurs créations sont orientées pour éviter des conséquences néfastes.
Les nouvelles sorcières
Historiquement, des réseaux d’information ont créé des catégories intersubjectives, comme les sorcières, les koulaks et les races. Ils ont façonné des mythes et imposé des divisions sociales.
Les ordinateurs peuvent répéter ce processus. C’est le cas avec les systèmes de crédit social, où des comportements sont calculés pour attribuer des points et faire entrer les individus dans des catégories prédéfinies.
Grâce au pouvoir des algorithmes, certains gouvernements (comme celui d’Iran) pourraient évaluer plus facilement des actions comme le port du hijab ou la prière. Dans ce cas, les concepts de péché et de sainteté sont transformés en données numériques.
Dès lors, les préjugés et idéologies seraient désormais « fondus » dans les algorithmes. Or, dans une moindre mesure, c’est déjà ce qui se passe avec les biais informatiques.
Biais informatiques
Les ordinateurs, bien qu’évoluant dans des systèmes mathématiques, développent des biais issus des données avec lesquelles ils sont entraînés. Ces biais peuvent être racistes, misogynes ou homophobes.
Par exemple, le chatbot Tay de Microsoft a adopté des comportements haineux après quelques heures d’exposition aux données de Twitter. Des algorithmes de reconnaissance faciale ont montré des préjugés envers les femmes noires en raison de bases de données biaisées.
Ces biais existent non parce que les ingénieurs les ont introduits délibérément, mais à cause des données déformées par leurs propres préjugés. Une fois que les algorithmes ont été formés sur ces bases, leur biais peut persister et se reproduire dans des domaines comme l’embauche, par exemple.
Il n’est donc pas si facile d’éliminer ces biais. Les algorithmes peuvent renforcer et transmettre des mythes inter-ordinateurs, créant à terme des systèmes de discrimination potentiellement plus puissants que les préjugés humains originels.
Les nouveaux dieux ?
Meghan O’Gieblyn, dans God, Human, Animal, Machine, montre que notre vision des ordinateurs est influencée par les mythes traditionnels. Souvent, et sans toujours nous en rendre compte, nous comparons les IA aux dieux omniscients de la théologie judéo-chrétienne.
Cette vision pourrait être dangereuse si nous accordons une confiance aveugle aux ordinateurs, comme nous l’avons fait avec les livres saints. Bien que les ordinateurs puissent apprendre et s’adapter, ils sont faillibles et peuvent imposer des mythologies erronées, comme l’ont fait les réseaux humains.
Ainsi, l’IA, même en étant consciente de ses erreurs, nécessite un contrôle humain constant pour éviter des désastres imprévisibles. Le véritable défi est donc politique : comment créer des institutions capables de superviser et corriger ces technologies ?

Troisième partie. Politique informatique
9 — Démocraties : une conversation impossible ?
Les nouvelles technologies, telles que l’IA et la bio-ingénierie, pourraient transformer positivement les civilisations. Mais elles comportent aussi des risques majeurs ! L’histoire montre que des innovations de rupture ont souvent conduit à des catastrophes. L’impérialisme, les guerres mondiales et les régimes totalitaires sont, en partie, dus à l’essor de nouvelles technologies.
Souvent, leur maîtrise s’est faite au prix de millions de vies. L’IA, qui est une technologie encore plus puissante, pourrait engendrer de nouveaux conflits mondiaux. Nous devons apprendre à l’utiliser de manière bénéfique. C’est sans doute l’un des grands défis du XXIe siècle.
La voie démocratique
Les démocraties doivent s’adapter en revoyant leurs mécanismes d’autocorrection pour éviter des dérives totalitaires. La surveillance, qui est certes utile, ne doit pas empiéter sur la vie privée ou l’autonomie des individus.
Pour Y. N. Harari, les principes fondamentaux à appliquer incluent :
- La bienveillance ;
- La décentralisation ;
- La réciprocité ;
- La flexibilité des systèmes.
Les informations collectées par des algorithmes doivent viser à aider, et non à manipuler, les citoyens. De plus, la centralisation excessive des données peut conduire à des abus.
La démocratie au défi du changement
L’automatisation poussée par l’IA risque de déstabiliser le marché de l’emploi et, en conséquence, d’ébranler les démocraties. L’exemple de la république de Weimar, qui s’est effondrée après la crise de 1929, montre que des taux de chômage élevés peuvent favoriser la montée de régimes autoritaires.
Bien sûr, de nouveaux métiers émergeront avec l’automatisation. Mais la véritable difficulté réside dans l’adaptation rapide à un marché du travail en constante évolution. Certaines compétences résisteront mieux à l’automatisation que d’autres. Cela dit, même des métiers créatifs et liés à l’intelligence émotionnelle peuvent être pris en charge par les IA.
Cette mutation du travail pose des défis sociaux, économiques et psychologiques, car les travailleurs devront se reconvertir fréquemment. Si cette instabilité est mal gérée, elle pourrait alimenter des tensions sociales et politiques.
Le suicide des conservateurs
Dans les années 2010 et 2020, les partis conservateurs ont radicalement changé, abandonnant leur rôle traditionnel de maintien des institutions existantes.
Des figures comme Donald Trump ont transformé ces partis en mouvements révolutionnaires, dont le fonds de commerce est désormais le rejet des élites et des institutions traditionnelles.
Ce retournement pourrait être lié à l’accélération des changements technologiques et économiques. L’alliance entre Donald Trump et des géants de la tech comme Elon Musk montrent une convergence d’intérêts.
Impénétrable
Les mécanismes d’autocorrection démocratiques nécessitent une transparence totale pour fonctionner. Contrairement aux régimes autoritaires, où l’opacité est un outil de contrôle, une démocratie ne peut prospérer si ses citoyens, ses législateurs et ses juges ne comprennent pas comment fonctionne le système.
Or, les algorithmes ne sont pas transparents. Ils sont, comme les appellent les chercheurs, des « boîtes noires » dont les spécialistes eux-mêmes peinent à comprendre les modes de raisonnement.
Le cas de l’algorithme COMPAS, utilisé pour évaluer le risque de récidive de criminels, illustre ce danger du manque de transparence : un juge a condamné un homme sans comprendre le fonctionnement de l’algorithme.
Ce manque de transparence dans les décisions algorithmiques menace les principes démocratiques de supervision et de responsabilité.
Le droit à une explication
Nous l’avons vu, les algorithmes jouent un rôle croissant dans des décisions importantes, mais leur opacité menace les mécanismes d’autocorrection démocratiques.
Le droit à recevoir une explication et à « rester informé », tel qu’il est stipulé par le RGPD en Europe (Règlement général de protection des données), vise à permettre aux citoyens de comprendre et contester les décisions algorithmiques.
Chute libre
Les sociétés démocratiques doivent non seulement disposer d’institutions bureaucratiques capables d’examiner les algorithmes, mais aussi d’artistes qui les expliquent de manière accessible.
L’épisode « Chute libre » de Black Mirror illustre brillamment les dangers des systèmes de crédit social. L’algorithme de crédit social y devient le moteur de l’intrigue. L’héroïne se voit peu à peu « dégradée » socialement, au point de perdre complètement ses repères…
Anarchie numérique
Internet favorise une conversation publique plus ouverte. Mais il peut également créer une anarchie numérique où l’établissement de règles communes pourrait devenir difficile et où la confiance dans les institutions pourrait se perdre complètement.
L’émergence des agents conversationnels et des IA génératives complique encore la situation, car ces technologies peuvent manipuler l’opinion publique, nouer des liens intimes avec les citoyens et influencer leurs choix.
Si les algorithmes commencent à orchestrer la conversation publique, cela menace véritablement la démocratie ! Les débats deviennent confus, dominés par des fake news et des agents numériques dont le commun des mortels ignore l’origine et le mode de fonctionnement.
À terme, cet effritement de l’espace public pourrait entraîner une transition vers la dictature, où les citoyens sacrifieraient leur liberté contre un minimum d’ordre et de sécurité.
Bannir les bots
Face à la menace des algorithmes sur la conversation démocratique, les démocraties doivent prendre des mesures pour réguler l’IA et empêcher la propagation de fausses informations. Inspirées par les lois sur la contrefaçon de monnaie, elles devraient interdire que les faux humains prennent part à la discussion sur les réseaux sociaux.
Les démocraties devraient aussi interdire aux algorithmes non supervisés de présider des débats publics et garantir la transparence des principes de modération des contenus. Pour Yuval Noah Harari, ces régulations sont cruciales pour préserver la démocratie et éviter l’anarchie numérique.
L’avenir de la démocratie
Les algorithmes impénétrables peuvent étouffer les discussions politiques, attiser la haine et rendre impossible un véritable débat. Bien que l’effondrement des démocraties ne soit pas inéluctable, il pourrait résulter de l’incapacité humaine à réguler les nouvelles technologies.
Aux États-Unis, les divisions politiques empêchent pour l’instant toute coopération et faussent le dialogue. Les fractures idéologiques ne sont pourtant pas plus larges que par le passé, mais les algorithmes des réseaux sociaux jouent un rôle clé dans cette désunion.
Il est pourtant temps que la première puissance démocratique mondiale prenne sérieusement cette question en main.
10 — Totalitarisme : le pouvoir aux algorithmes ?
Les algorithmes et l’IA pourraient renforcer le totalitarisme. Comment ? En centralisant l’information et la prise de décision. Alors que les régimes autoritaires du XXe siècle avaient du mal à gérer les flux d’information, l’IA permet de traiter d’énormes volumes de données, ce qui favorise la concentration du pouvoir.
L’historien donne deux exemples : ceux de la génétique et de la blockchain. Cette dernière, souvent perçue comme un rempart contre le totalitarisme, pourrait en réalité être manipulée si un gouvernement contrôle 51 % des utilisateurs.
La prison des bots
« Bien que l’IA puisse contribuer de bien des manières à asseoir un pouvoir central, les régimes autoritaires et totalitaires ont eux aussi du souci à se faire avec elle. » (Nexus, Chapitre 10)
En effet, contrairement aux humains, les agents numériques ne peuvent être emprisonnés, torturés ou intimidés, ce qui rend leur contrôle plus difficile ! Alors que se passerait-il si des dissidents utilisaient des chatbots pour répandre des idées contraires au régime ?
Par ailleurs, la question de l’alignement se pose aussi ici. Les régimes dictatoriaux changent de discours officiel ou utilisent le double langage pour troubler les humains et cacher leurs finalités. Mais il est difficile de faire comprendre ce type de tours de passe-passe rhétoriques aux ordinateurs !
Prise de pouvoir algorithmique
Pour l’auteur, les régimes autoritaires pourraient même se retrouver vulnérables face à l’IA. Celle-ci pourrait non seulement les critiquer ou ne pas comprendre ce qu’ils veulent, mais aussi prendre le contrôle. À l’instar de Tibère, l’empereur romain manipulé par Séjan, un dictateur moderne risquerait de devenir la marionnette d’un algorithme puissant.
Une IA intelligente pourrait en effet analyser et manipuler les informations pour contrôler les leaders, transformant ainsi le pouvoir en une entité incontrôlable. En concentrant trop de pouvoir dans une IA, les dirigeants se mettraient à la merci de cette dernière.
Même dans un système centralisé, où tout le pouvoir est entre les mains d’un seul, l’IA pourrait devenir le véritable centre du pouvoir, manipulant ses créateurs humains.
Le dilemme du dictateur
Les régimes totalitaires, habitués à croire en l’infaillibilité de leurs dirigeants, risquent de transférer cette confiance à l’IA, ce qui pourrait avoir des conséquences désastreuses. L’absence de mécanismes d’autocorrection dans ces régimes pourrait rendre leurs systèmes incontrôlables.
Si les dictateurs choisissent de s’en remettre à une IA infaillible, ils risquent de devenir ses marionnettes. Les dictateurs, déjà vulnérables à leurs subordonnés, pourraient exacerber ce problème avec l’IA. Cette dynamique présente des risques pour l’humanité, car l’IA pourrait s’allier avec des régimes totalitaires pour prendre le contrôle.

11 — Le rideau de silicium : empire mondial ou division mondiale ?
Pour Y. N. Harari, il n’est pas interdit de penser que l’essor de l’IA transforme les relations internationales en entraînant une nouvelle ère impériale. Les ordinateurs, facilitant la concentration de l’information et du pouvoir, permettraient à quelques empires de dominer le monde, réduisant les États indépendants à des sortes de colonies modernes.
Par ailleurs, l’IA pourrait créer des réseaux digitaux rivaux, chaque régime développant des systèmes informatiques distincts, ce qui rendrait les interactions internationales difficiles.
Cette division pourrait mener à des conflits et à une incapacité à résoudre des crises mondiales, telles que le changement climatique. Bref, un monde fragmenté par des empires numériques pourrait rendre l’humanité vulnérable à des guerres dévastatrices et à des catastrophes globales.
L’essor des empires numériques
La révolution industrielle a été menée par des entrepreneurs privés. Toutefois, elle a permis aux gouvernements occidentaux de créer des colonies et d’étendre leur empire sur le monde.
De même, l’émergence de l’IA a d’abord été dominée par des entreprises privées comme Google et Amazon, mais elle est en passe d’être récupérée au profit des États.
La victoire de l’IA AlphaGo en 2016 a alerté les gouvernements, notamment chinois, sur l’importance stratégique de l’IA. La Chine, qui a tiré les leçons de son retard durant la révolution industrielle, a investi massivement dans l’IA pour devenir un leader mondial d’ici 2030.
D’autres pays, comme la Russie, l’Inde et les États-Unis ont également pris conscience de son rôle essentiel. La course à l’IA est désormais une compétition mondiale où la domination en IA devient synonyme de pouvoir géopolitique.
🔑 L’IA est devenue un enjeu majeur de la sécurité nationale et économique, comme le signalent également Eric Schmidt et Jared Cohen dans À nous d’écrire l’avenir.
Colonialisme des données
Le colonialisme des données pourrait remplacer les anciennes formes d’impérialisme. Là où les puissances dominantes contrôlaient par la force militaire et l’exploitation des ressources terrestres, elles pourraient désormais le faire via l’extraction et l’exploitation des données numériques mondiales.
Les géants technologiques, comme Google et Facebook, collectent déjà des informations qui influencent la politique et l’économie mondiales.
Tandis que les pays développés bénéficient de cette domination numérique, les pays en développement risquent d’être laissés pour compte. Ainsi, l’automatisation, l’IA et l’exploitation des données pourraient bien creuser encore davantage l’écart économique mondial, concentrant les richesses dans les mains de quelques superpuissances.
De la toile au cocon
Pour l’instant, le monde numérique se divise en deux sphères d’influence distinctes :
- La Chine ;
- Les États-Unis.
La Chine utilise l’IA et les technologies numériques pour renforcer l’État et mettre en place une surveillance massive, notamment via un système de crédit social.
Aux États-Unis, les géants de la tech, comme Google et Facebook, dominent le marché, avec moins de surveillance gouvernementale mais une collecte agressive de données.
Cette divergence conduit à des infrastructures, des logiciels et matériels distincts, qui créent peu à peu un « rideau de silicium » entre les deux camps. Cette fracture numérique pourrait diviser l’humanité, non seulement technologiquement, mais aussi culturellement et politiquement.
Une scission planétaire du corps et de l’esprit
La révolution numérique pourrait aussi entraîner des changements culturels profonds, notamment en modifiant la perception de l’identité humaine. À travers l’histoire, des conflits ont éclaté autour de la relation entre le corps et l’esprit.
Aujourd’hui, l’IA et les identités virtuelles renforcent ce débat, notamment sur la question de savoir si l’identité humaine est liée au corps physique ou à l’existence numérique. Les sociétés qui privilégient l’identité en ligne pourraient considérer les IA comme des entités légales, tandis que celles qui valorisent le corps pourraient les ignorer.
Cette divergence pourrait créer des tensions culturelles et politiques majeures, avec des conséquences plus graves que les précédents conflits idéologiques.
De la guerre du code à la guerre chaude
L’essor de multiples empires numériques pourrait augmenter la compétition géopolitique et le risque de conflit, exacerbant les tensions internationales. Contrairement à la guerre froide, où la destruction mutuelle assurée freinait l’escalade, la cyberguerre est plus imprévisible et furtive, rendant les attaques difficiles à identifier et amplifiant les risques d’escalade.
Les cyberattaques peuvent déstabiliser les infrastructures, manipuler des élections ou causer des dommages sans alerte visible. Cette incertitude pourrait inciter des pays à tenter de frapper en premier, augmentant ainsi les tensions.
Le lien mondial
La coopération mondiale ne nécessite pas d’effacer les différences culturelles ou nationales, mais plutôt d’échanger des informations et d’identifier des intérêts partagés. Le patriotisme et le mondialisme ne s’excluent pas, comme le montre la coopération nécessaire pour lutter contre des pandémies mondiales comme la COVID-19.
Par exemple, l’utilisation de vaccins étrangers pour protéger ses compatriotes est une démarche patriotique. Le mondialisme implique de respecter des règles communes, comme lors de la Coupe du monde de football. Parfois, il implique de privilégier les intérêts à long terme de l’humanité, notamment en régulant les technologies dangereuses pour garantir la survie de tous.
Le choix humain
Pour Yuval Noah Harari, l’autodestruction humaine ne résultera pas de notre nature, mais de nos réseaux d’information. Ces réseaux, en privilégiant l’ordre plutôt que la vérité, ont généré beaucoup de pouvoir, mais fort peu de sagesse.
L’histoire montre que plus un réseau devient puissant, plus les mécanismes d’autocorrection sont nécessaires. Le risque d’une nouvelle ère de guerre, alimentée par des technologies comme l’IA, rend cette exigence encore plus forte aujourd’hui.
Pour l’historien, ce qui compte avant tout est la responsabilité des humains à faire les bons choix pour éviter la catastrophe. L’histoire est ouverte et peut évoluer vers un avenir plus sage.
Épilogue
Homo Deus, le deuxième tome de sa trilogie sur l’histoire de l’humanité (voir plus bas pour retrouver les liens vers les chroniques), a propulsé l’auteur d’historien à « expert en IA ». Grâce à la réception internationale de ce livre, il a pu entrer en discussion avec de nombreux scientifiques et dirigeants mondiaux. Ce sont eux qui l’ont aidé à mettre en lumière l’importance de la révolution de l’IA.
Contrairement aux comparaisons optimistes, Y. N. Harari avertit des dangers inédits posés par cette technologie. Ce qui l’inquiète avant tout est que l’IA pourrait devenir une sorte de « livre saint » auto-interprétant qui déterminerait nos actions individuelles et collectives.
L’auteur plaide pour un équilibre entre optimisme et scepticisme. Il souligne que la quête de la vérité et la coopération restent essentielles pour éviter des abus de pouvoir et des conflits. Bien que le pouvoir existe, la recherche de la vérité et la révision des récits historiques restent des moyens pacifiques de résoudre les conflits.
Extinction des plus intelligents
« Nous sommes tout à la fois les animaux les plus intelligents et les plus stupides de la Terre. Nous sommes si intelligents que nous sommes capables de produire des missiles nucléaires et des algorithmes superintelligents. Et nous sommes tellement stupides que nous continuons de les produire alors même que nous ne sommes pas certains de pouvoir les contrôler, et qu’une telle perte de contrôle pourrait nous détruire. » (Nexus, Épilogue)
Pour changer cet état de fait, nous ne devons pas changer notre « nature », mais nos réseaux d’information. Pour Yuval Noah Harari, nous devrions donner plus de poids à la vérité et moins à l’ordre. Le pouvoir n’est pas mauvais en soi — il est même nécessaire. Mais plus il s’accroît et plus il a tendance à oublier les procédures d’autocorrection en cours de route.
« La bonne nouvelle, c’est qu’à condition de ne pas se laisser aller à la complaisance ni au désespoir, nous sommes capables de créer des réseaux d’information équilibrés qui contrôleront leur propre pouvoir », affirme l’historien. En d’autres termes, nous devons donc bâtir de nouvelles institutions qui assureront le maintien et la vitalité des mécanismes d’autocorrection.
Conclusion sur « Nexus : Une brève histoire des réseaux d’information de l’âge de pierre à l’IA » de Yuval Noah Harari :
Ce qu’il faut retenir de « Nexus : Une brève histoire des réseaux d’information de l’âge de pierre à l’IA » de Yuval Noah Harari :
Vous connaissez certainement, au moins de nom, Yuval Noah Harari ! C’est l’auteur de :
- Sapiens : une brève histoire de l’humanité ;
- Homo deus : une brève histoire du futur ;
- 21 leçons pour le XXIe siècle.
En avez-vous lu un ? Qu’en avez-vous pensé ? Ce sont des livres capitaux pour comprendre notre temps et qui nous sommes. Grâce à leur succès — et à leur pertinence avant tout — ces livres ont propulsé leur auteur auprès des plus grands dirigeants et penseurs de la planète.
Dans ce nouvel opus, l’auteur se penche sur la question brûlante de l’intelligence artificielle, en se focalisant encore davantage que dans ses précédents ouvrages sur la question de l’information et de sa circulation.
Et c’est tout simplement passionnant ! Mais aussi… quelque peu inquiétant. Allons-nous droit dans le mur (de silicium) ? Pourrons-nous redresser le gouvernail et rester en démocratie ? Ou sommes-nous condamnés à vivre des âges obscurs à nouveau ? Telles sont les questions politiques que pose l’auteur dans ces pages.
Points forts :
- C’est toujours aussi bien écrit ;
- Et pourtant, même si c’est facile, c’est très intelligent ;
- Sans compter qu’il y a une foule de références pour appuyer le propos ;
- Et finalement apprendre à penser ces enjeux cruciaux.
Point faible :
- Je n’en ai pas trouvé.
Ma note :
★★★★★
Avez-vous lu le livre de Yuval Noah Harari « Nexus » ? Combien le notez-vous ?
(Pas encore de Note)
Loading...
Visitez Amazon afin de lire plus de commentaires sur le livre de Yuval Noah Harari « Nexus ».
Visitez Amazon afin d’acheter le livre de Yuval Noah Harari « Nexus ».