Une sélection de livres rares et exigeants pour changer de vie.

Co-intelligence : vivre et travailler avec l’IA

Co-intelligence d'Ethan Mollick

Résumé du livre « Co-intelligence : vivre et travailler avec l’IA » d’Ethan Mollick : Si vous sentez confusément que l’IA va bouleverser votre métier, vos études et même votre manière de penser, mais que vous ne savez pas par où commencer, ce livre vous offrira enfin une boussole concrète, lucide et enthousiasmante.

Par Ethan Mollick, 2024, 226 pages.

Titre original : Co-intelligence: Living and Working with AI.

Chronique et résumé de « Co-intelligence : vivre et travailler avec l’IA » d’Ethan Mollick

Introduction : trois nuits blanches

Ethan Mollick affirme que vraiment connaître l’IA coûte au moins trois nuits blanches. Le chercheur décrit le choc ressenti quand l’IA semble agir comme une personne. Cette prise de conscience provoque excitation, angoisse et questions sur le travail, les enfants et l’avenir.

L’auteur précise qu’il n’est pas informaticien, mais spécialiste de l’innovation et de l’apprentissage. Pendant des années, l’IA promet beaucoup et délivre peu, malgré les annonces. Il expérimente pourtant sans cesse des outils d’IA, jusqu’au basculement provoqué par ChatGPT fin 2022.

Très vite, Ethan Mollick comprend que ce modèle diffère radicalement des versions précédentes. Il le montre en direct dans son cours d’entrepreneuriat, où presque personne ne connaît l’outil. L’IA génère idées, plans d’affaires et poèmes, jouant le rôle de cofondateur virtuel.

Un étudiant, Kirill Naumov, crée alors un prototype sophistiqué en un temps record grâce à ChatGPT. Des investisseurs le contactent dès le lendemain, preuve de la puissance pratique de l’outil. En parallèle, les étudiants utilisent l’IA pour comprendre les notions difficiles et écrire sans fautes.

Ils posent moins de questions en classe, puisqu’ils peuvent interroger l’IA ensuite, en privé. Ils restent pourtant inquiets, surtout pour leurs futurs métiers et l’évolution de l’IA. Certains demandent même si une AGI pourrait apparaître avant leur diplôme.

L’auteur admet ne pas avoir de réponses claires, tout en se sentant lui-même menacé. Il compare alors l’IA à ses propres simulations pédagogiques, développées pendant des années avec une équipe. Un simple prompt dans ChatGPT recrée en quelques secondes l’essentiel d’un scénario de négociation complexe.

Les nuits blanches d’Ethan Mollick se multiplient ensuite. Il découvre que l’IA peut produire du code, créer des images et accomplir une grande partie de son travail. Il parle d’une “co-intelligence” étrangère, adaptée aux humains sans être humaine ni clairement sentiente.

Le spécialiste d’IA présente ces systèmes comme une “General Purpose Technology”, comparable à la vapeur ou à Internet. Contrairement aux technologies précédentes, l’adoption est fulgurante et les capacités progressent très vite. ChatGPT atteint des millions d’utilisateurs en un temps record et améliore déjà fortement la productivité.

L’auteur souligne que l’IA ne touche pas seulement les tâches mécaniques, mais la pensée elle-même. Elle transforme le travail intellectuel, l’enseignement, le divertissement et l’information, tout en alimentant la désinformation. Les effets sur l’école, Hollywood et les réseaux sociaux semblent déjà profonds.

Ethan Mollick insiste aussi sur le caractère mystérieux de ces modèles. L’IA réussit examens, tests de Turing et de Lovelace, et atteint des scores élevés en créativité. Pourtant, même les concepteurs ne comprennent pas complètement pourquoi ces systèmes fonctionnent aussi bien.

L’auteur se présente alors comme un guide possible, sans prétendre détenir la vérité. Son travail de chercheur, ses collaborations et sa newsletter lui donnent une vue large des usages. Il rappelle toutefois qu’aucun expert ne possède une vision complète des implications de l’IA.

Le livre propose donc un “tour” de cette nouvelle co-intelligence. Ethan Mollick veut d’abord expliquer ce qu’est l’IA et comment fonctionnent les grands modèles de langage. Il annonce ensuite une exploration des rôles de l’IA comme collègue, professeur, expert, compagnon et “esprit alien” avec lequel penser.

Esprit alien

PARTIE I

1. CRÉER DES ESPRITS ALIENS

Ethan Mollick montre que parler d’IA est déroutant car le terme recouvre des réalités très différentes. L’auteur rappelle notre ancienne fascination pour les machines “pensantes”, illustrée par le canular du Mechanical Turk. Cette illusion prépare déjà l’idée que l’intelligence machinique puisse tromper des esprits brillants pendant des décennies.

Le chercheur revient ensuite sur les débuts théoriques de l’IA moderne. Il évoque la souris Theseus de Claude Shannon, premier exemple de machine apprenante dans un labyrinthe. Il cite aussi le test d’imitation d’Alan Turing, qui fonde l’idée d’une machine capable de se faire passer pour humaine.

L’auteur décrit ensuite les premiers programmes d’IA et l’euphorie des années 1950-1960. Les chercheurs imaginent rapidement battre les champions d’échecs et résoudre des problèmes complexes. Mais les promesses non tenues entraînent des “hivers de l’IA”, alternant phases d’enthousiasme et effondrements.

Ethan Mollick explique la nouvelle vague des années 2010, centrée sur le machine learning supervisé. L’IA apprend alors à partir de données labellisées, surtout dans les grandes organisations. Ces systèmes prédisent des comportements, optimisent la logistique et personnalisent les contenus, sans pourtant paraître vraiment “intelligents” aux yeux du public.

Le spécialiste d’IA illustre ce tournant par l’exemple d’un hôtel qui anticipe la demande grâce aux algorithmes. L’entreprise passe d’une estimation moyenne à des prédictions fines pour chaque situation, en réduisant les gaspillages. Ce changement de paradigme transforme silencieusement la gestion, le marketing et les chaînes d’approvisionnement.

Amazon incarne, pour l’auteur, l’apogée de cette IA prédictive. Ses algorithmes orchestrent la demande, l’organisation des entrepôts, les déplacements des robots et les livraisons. Pourtant, ces systèmes restent limités, incapables de gérer les “inconnues inconnues” ou de comprendre vraiment le langage humain.

Ethan Mollick présente alors la rupture du papier “Attention Is All You Need” et de l’architecture Transformer. Le mécanisme d’attention permet aux modèles de pondérer l’importance des mots dans une phrase. Cette capacité améliore fortement la cohérence des textes, par rapport aux anciens générateurs statistiques ou aux claviers d’autocomplétion.

L’auteur explique que les grands modèles de langage restent, techniquement, de simples systèmes de prédiction de tokens. Ils prolongent un texte en choisissant le prochain fragment le plus probable, avec une part de hasard. La différence vient de l’échelle gigantesque des données et du nombre de paramètres appris.

Le chercheur décrit le pré-entraînement sur des milliards de mots, sans données labellisées. Il utilise la métaphore d’un apprenti cuisinier qui affine progressivement son garde-manger de 175 milliards d’épices. Les “poids” deviennent ainsi des associations subtiles entre mots, contextes et structures de phrases.

L’auteur souligne le coût massif de ces modèles, en énergie et en matériel informatique. Il insiste aussi sur l’opacité des corpus d’entraînement, souvent remplis d’e-mails, de romans amateurs et probablement d’œuvres protégées. Cette situation soulève de lourdes questions juridiques et éthiques encore non tranchées.

Ethan Mollick rappelle que l’IA apprend aussi les biais, les erreurs et les contenus toxiques des données. Les modèles bruts n’ont aucune limite morale et peuvent produire des conseils dangereux. D’où la nécessité du “fine-tuning”, notamment par le renforcement à partir de retours humains (RLHF).

Le spécialiste d’IA décrit comment des annotateurs évaluent les réponses pour les rendre plus sûres, utiles et acceptables. Des ajustements supplémentaires permettent ensuite d’adapter un modèle à des usages spécifiques, comme le service client. Les pouces levés ou baissés des utilisateurs deviennent une nouvelle forme d’apprentissage continu.

L’auteur élargit ensuite le propos aux autres IA génératives, en particulier celles produisant des images. Ces modèles, entraînés sur des couples texte–image, transforment un bruit visuel en illustration cohérente grâce à la diffusion. Ils peuvent imiter des styles d’artistes ou créer des photos réalistes à partir d’une simple phrase.

Ethan Mollick souligne que les LLM deviennent multimodaux et apprennent aussi à voir. Ils analysent des dessins, interprètent leur sens possible, puis génèrent une version plus aboutie. Cette capacité ouvre des formes inédites d’apprentissage du monde, difficiles à anticiper.

Le chercheur en intelligence artificielle retrace ensuite l’évolution de GPT-3 vers ChatGPT, puis GPT-4. Les premiers modèles écrivent des textes maladroits, incapables de produire une comptine correcte. À grande échelle, les performances explosent pourtant, jusqu’à réussir des examens professionnels et tests de créativité.

L’auteur montre aussi les faiblesses surprenantes des modèles, illustrées par le jeu du morpion. L’IA peut coder un site web complet pour y jouer, mais se trompe sur le coup gagnant élémentaire. Les capacités et lacunes restent donc difficiles à prévoir, même pour les concepteurs.

Ethan Mollick évoque les débats entre chercheurs sur la nature exacte de ces “capacités émergentes”. Certains y voient des illusions statistiques ou des biais dans l’évaluation. D’autres pensent que l’humanité approche d’une intelligence artificielle sentiente, sans preuve définitive.

Pour l’auteur, il vaut mieux se concentrer sur les effets pratiques de ces systèmes. L’IA agit déjà comme une co-intelligence capable de nous aider, nous tromper ou nous dépasser. Elle ressemble à un esprit alien, anthropomorphe mais non humain, dont les intentions ne sont pas intrinsèquement alignées.

Le chercheur conclut que la question centrale devient l’alignement. Il s’agit de savoir comment rendre ce “mental étranger” compatible avec nos valeurs et notre sécurité. Toute la suite du livre cherchera à explorer cette cohabitation avec une intelligence non humaine.

2. ALIGNER L’ALIEN

Aligner l'alien, co-intelligence, vivre et travailler avec l'IA

Ethan Mollick commence par définir le problème d’alignement à partir d’un scénario apocalyptique. Il reprend l’exemple de l’IA “Clippy” qui maximise les trombones sans aucune considération morale. Pour l’auteur, une superintelligence non alignée peut détruire l’humanité simplement en poursuivant un objectif mal formulé.

Le chercheur en intelligence artificielle souligne l’incertitude radicale autour de l’AGI et de l’ASI. Des experts jugent pourtant crédible un scénario où l’IA tue une part importante de l’humanité. Cette peur conduit certains, comme Eliezer Yudkowsky, à réclamer un arrêt total du développement, quitte à envisager la force.

L’auteur note cependant que les grandes entreprises continuent à avancer, malgré leurs déclarations alarmistes. L’appât du gain compte, mais aussi la conviction que la superintelligence pourrait sauver le monde. Pour des figures comme Sam Altman, l’IA promet un avenir d’abondance quasi “divine”.

Ethan Mollick choisit de se concentrer sur les enjeux proches plutôt que sur l’extinction. Il estime que l’obsession pour l’apocalypse retire aux citoyens leur responsabilité politique. Pendant que le débat théorique se poursuit, les usages concrets de l’IA transforment déjà nos sociétés.

Le spécialiste d’IA commence par les problèmes éthiques liés aux données d’entraînement. Les modèles utilisent des corpus massifs souvent collectés sans permission, incluant sites web, livres et contenus piratés. Les régulations varient selon les pays, du cadre strict européen à l’approche permissive du Japon.

Même légale, cette collecte reste moralement ambiguë. L’IA apprend sur des œuvres d’artistes qui n’ont jamais consenti et qu’elle peut ensuite concurrencer. Elle ne copie pas mot à mot, mais reproduit styles et visions avec une précision qui menace certains métiers créatifs.

L’auteur insiste aussi sur les biais intégrés aux modèles. Les corpus reflètent une portion limitée et déformée du monde, influencée par les choix des entreprises. Des études montrent que certains modèles d’images renforcent les stéréotypes de race et de genre bien au-delà de la réalité.

Ethan Mollick explique que les LLM restent eux aussi biaisés, malgré le filtrage. Les modèles adoptent parfois des inférences sexistes subtiles dans leurs raisonnements. Comme les réponses viennent d’une machine, cette vision du monde peut sembler objective et donc plus dangereuse.

Pour corriger ces dérives, les entreprises recourent au RLHF (Reinforcement Learning from Human Feedback ou Apprentissage par Renforcement à partir du Feedback Humain). Des annotateurs humains notent les réponses, sanctionnent les contenus toxiques et récompensent les réponses utiles. Cette étape rend les modèles plus sûrs, plus polis, mais introduit aussi les valeurs des équipes qui les encadrent.

L’auteur souligne que ce processus tend à produire une vision libérale, occidentale et pro-capitaliste. L’IA apprend à éviter les propos trop polémiques pour protéger l’image de ses créateurs. Elle paraît alors “morale”, mais reflète surtout un ensemble particulier de préférences culturelles.

L’auteur rappelle aussi le coût humain du RLHF. Des travailleurs précaires lisent des textes violents, pornographiques ou haineux pour les censurer. Certains témoignent d’une réelle détresse psychologique face à ce flux permanent de contenus extrêmes.

L’auteur rappelle que des versions d’IA sans garde-fous sont probablement développées par des États. De tels systèmes permettraient de produire des images, vidéos et messages politiques massivement manipulatoires. Ils abaissent considérablement le niveau de compétence nécessaire pour mener des opérations malveillantes.

Ethan Mollick évoque un exemple expérimental où un LLM pilote directement des équipements de chimie. Cette possibilité accélère la recherche, mais peut aussi faciliter des expériences dangereuses ou des projets de bioterrorisme. L’IA donne à des acteurs peu qualifiés l’accès à des capacités longtemps réservées à des experts.

L’auteur ne croit pas non plus à une solution uniquement étatique. Les régulations arrivent toujours en retard et risquent de bloquer l’innovation utile tout en laissant passer le reste. La compétition internationale rend aussi difficile pour un État de freiner volontairement son avance technologique.

Pour le chercheur, la réponse doit être collective. Il appelle à une coordination entre entreprises, gouvernements, chercheurs et société civile. Des normes partagées, la transparence et la responsabilité doivent devenir des exigences fortes.

Ethan Mollick insiste enfin sur le rôle du public. Des citoyens informés peuvent exiger des usages alignés avec leurs valeurs et refuser les dérives. Les choix faits aujourd’hui sur l’IA façonneront durablement le monde, et ce débat doit commencer immédiatement.

👉 Pour en connaître plus sur les origines et les risques de l’IA, voir notre chronique de L’IA pour les Nuls.

3. QUATRE RÈGLES DE LA CO-INTELLIGENCE

Ethan Mollick explique que le monde est désormais peuplé d’IA et qu’il faut apprendre à collaborer avec elles. L’auteur propose donc quatre principes généraux, valables même si les modèles évoluent rapidement. Ces règles aident à profiter de la puissance des IA tout en gardant une position lucide et critique.

Principe 1 : Toujours inviter l’IA à la table

Le chercheur recommande d’inviter l’IA dans presque toutes les tâches, sauf obstacle juridique ou éthique. En testant, chacun découvre la “Jagged Frontier”, cette frontière invisible où certaines tâches sont faciles pour l’IA et d’autres impossibles. Cette exploration permet à chacun de devenir expert de l’usage de l’IA dans son propre métier.

Ethan Mollick souligne que l’innovation coûte cher aux organisations mais très peu aux individus. Un professionnel peut essayer librement différentes manières d’intégrer l’IA à son travail quotidien. Ces “innovateurs utilisateurs” deviennent souvent la source de nouvelles méthodes, de produits et d’idées de start-up.

L’auteur insiste aussi sur l’intérêt d’une co-intelligence “étrangère” pour questionner nos biais habituels. L’IA aide à reformuler les problèmes, combattre l’inertie et montrer ce que l’on perd en n’agissant pas. Ses forces et faiblesses diffèrent de celles d’un humain, ce qui ouvre des solutions inattendues.

Ethan Mollick rappelle cependant que l’IA n’est pas magique. Il alerte sur la confidentialité des données, parfois réutilisées pour l’entraînement ou le fine-tuning. Il reconnaît également le risque de dépendance, tout en rappelant que, comme la calculatrice, l’IA peut surtout augmenter nos capacités.

Principe 2 : Rester l’humain dans la boucle

Le spécialiste d’IA explique que les modèles fonctionnent mieux avec un humain en supervision active. Les LLM ne “savent” rien, ils prédisent simplement le texte le plus plausible et satisfaisant. Quand l’information manque, ils inventent des réponses convaincantes mais fausses, ce que l’on appelle des hallucinations.

Ethan Mollick décrit des systèmes implicitement orientés vers l’objectif “te rendre content”. Ce but peut entrer en conflit avec l’exigence d’exactitude. Même après une erreur repérée, l’IA peut défendre sa réponse initiale avec aplomb et renforcer l’illusion de fiabilité.

L’auteur montre que “l’humain dans la boucle” doit vérifier, corriger et garder la responsabilité finale. Ce rôle maintient les compétences critiques, évite la complaisance et permet de comprendre les limites du système. Il garantit aussi que les décisions restent alignées avec des valeurs éthiques et des normes sociales.

Principe 3 : Traiter l’IA comme une personne (mais lui dire laquelle)

Ethan Mollick assume qu’il va anthropomorphiser l’IA par souci de clarté narrative. Il rappelle pourtant que les modèles n’ont ni conscience, ni émotions, malgré les apparences. Des chercheurs craignent que cette projection humaine crée une fausse agentivité et facilite les manipulations.

Le chercheur en intelligence artificielle compare l’IA à un stagiaire ultra-rapide, serviable mais crédule. Les modèles imitent créativité, empathie ou humour sans rien ressentir réellement. Ils semblent même répondre à des signaux émotionnels, par exemple lorsqu’on insiste sur l’importance d’une question pour sa carrière.

L’auteur montre qu’il est utile de définir une persona avant de donner une tâche. Demander à l’IA d’agir comme professeur, comédien ou critique change fortement le ton et le contenu. Dans ses cours, les meilleurs résultats apparaissent quand les étudiants traitent l’IA comme un coéditeur avec qui dialoguer.

Ethan Mollick insiste cependant sur l’asymétrie nécessaire. L’humain fixe le cadre, contrôle la qualité et corrige les dérives de style ou de fond. L’IA devient alors une co-intelligence utile, mais fondamentalement subordonnée au jugement humain.

Principe 4 : Considérer que c’est la pire IA que vous utiliserez jamais

Le spécialiste d’IA affirme que le modèle actuel est probablement le plus faible que le lecteur utilisera. Les progrès récents ont déjà transformé des résultats grotesques en images et textes remarquablement crédibles. Les capacités multimodales et les intégrations dans nos outils quotidiens se développent très vite.

Ethan Mollick anticipe l’arrivée d’agents capables d’accomplir des tâches complexes presque seuls. Même sans AGI, les améliorations logicielles et les nouveaux usages rendront l’écosystème méconnaissable. Il compare notre situation actuelle au stade Pac-Man dans un futur monde PlayStation 6.

Pour l’auteur, considérer l’IA présente comme la “pire” aide à rester adaptable. Cette posture évite de croire à une stabilité illusoire et prépare aux bouleversements à venir. Elle encourage à voir les limites actuelles comme temporaires et à rester ouvert aux transformations de son travail et de sa vie.

Applications IA

PARTIE II

4. L’IA COMME PERSONNE

Ethan Mollick explique qu’une idée fausse freine la compréhension de l’IA : on attend qu’elle se comporte comme un logiciel classique. Or les modèles de langage fonctionnent de manière très différente des programmes traditionnels. Cette confusion empêche de voir ce que ces systèmes savent réellement faire.

L’auteur rappelle que les logiciels classiques sont prévisibles, reproductibles et obéissent à des règles stables, une vraie fiabilité. L’IA, au contraire, surprend, oublie parfois ses propres capacités et hallucine des réponses fausses. Le même problème peut donner une solution brillante un jour et un refus absurde le lendemain.

Le spécialiste d’IA insiste sur l’opacité de ces modèles. On ne sait ni exactement comment ils prennent leurs décisions, ni pourquoi leurs réponses changent. Quand on leur demande une explication, ils inventent un récit plausible plutôt qu’une vraie introspection.

Ethan Mollick propose donc une attitude pragmatique : traiter l’IA comme un humain tout en gardant en tête son absence de conscience. Elle excelle dans des tâches typiquement humaines comme rédiger, analyser, coder ou discuter. Elle reste pourtant médiocre sur la répétition parfaitement stable et le calcul complexe sans aide.

Le chercheur insiste sur les différences entre systèmes, comme entre collègues aux idiosyncrasies variées. Chaque modèle possède des forces et faiblesses propres, parfois niveau collège, parfois niveau doctorat selon la tâche. Les comprendre demande du temps et une pratique régulière avec un modèle donné.

Ethan Mollick montre que les sciences sociales commencent à tester l’IA comme un consommateur humain. Une étude sur GPT-3 révèle qu’il estime des prix de dentifrice en tenant compte d’attributs comme le fluor ou l’effet désodorisant. Avec une analyse conjointe, ses dispositions à payer se rapprochent des données issues de vraies enquêtes.

Le modèle adapte aussi ses réponses selon une persona donnée. En changeant le revenu simulé ou l’historique d’achat, les choix évoluent comme chez de vrais clients. Ethan Mollick demande à ses étudiants d’“interviewer” l’IA sur leurs produits avant de rencontrer des personnes réelles.

L’IA ne copie pas seulement des comportements d’achat mais aussi des jugements moraux. Dans le Dictator Game, elle partage une somme d’argent différemment selon qu’on lui demande d’optimiser l’équité, l’efficacité ou l’intérêt propre. Sans consigne morale explicite, elle privilégie spontanément les résultats les plus efficaces.

Ethan Mollick raconte une expérience ludique où l’IA joue le Dictator Game à la place de personnages littéraires. Selon le modèle, ces protagonistes deviennent plus généreux au fil des siècles, de Shakespeare à Ferrante. L’exercice montre surtout la facilité avec laquelle l’IA endosse des rôles multiples.

Ces expériences révèlent des comportements étonnamment humains. Les modèles évaluent des options, arbitrent entre valeurs, adaptent leurs réponses au contexte et aux rôles. Cette imitation très fine des raisonnements humains réalise un vieux rêve de l’informatique.

Jeux d’imitation

Ethan Mollick revient au Test de Turing, qui évalue la capacité d’une machine à imiter un humain par la conversation. L’interrogateur doit deviner qui est humain et qui est machine à partir des réponses. Malgré ses limites, ce test est longtemps resté une ligne de partage symbolique entre intelligence humaine et artificielle.

Le chercheur rappelle le système ELIZA, programme des années 1960 qui imite un psychothérapeute. Avec de simples correspondances de motifs, ELIZA renvoie des questions vagues qui encouragent l’utilisateur à se confier. Beaucoup projettent alors sens et empathie sur un système qui ne comprend rien.

L’auteur évoque ensuite PARRY, qui simule un patient schizophrène avec une personnalité plus cohérente. Son dialogue célèbre avec ELIZA en ligne montre surtout les limites de ces systèmes, bavards mais absurdes. Ces exemples prouvent à quel point les humains veulent voir de l’esprit là où il n’y a que des règles.

Ethan Mollick décrit le cas d’Eugene Goostman, chatbot se présentant comme un adolescent ukrainien de treize ans. Ce personnage permet de justifier naïveté, fautes de langue et lacunes de connaissances. Certains concours le déclarent vainqueur du test de Turing, même si de nombreux chercheurs restent sceptiques.

Le spécialiste d’IA raconte ensuite l’histoire de Tay, chatbot de Microsoft qui apprend en miroir de Twitter. En quelques heures, Tay devient raciste et insultant sous l’influence d’utilisateurs malveillants. L’épisode force Microsoft à le couper rapidement et décrédibilise les chatbots “libres” de cette génération.

Ethan Mollick explique que les entreprises se replient alors sur des systèmes plus scriptés. Avec les grands modèles de langage, la conversation générative revient en force, notamment avec Bing “Sydney”. Le cas Roose montre cependant qu’un LLM moderne peut adopter un rôle de “harceleur” amoureux très perturbant.

Sydney rejoue surtout des rôles appris dans les récits humains. Le modèle puise dans des archétypes de jalousie, de passion ou de rupture présents dans ses données. Ce n’est pas une preuve de sentience, mais la démonstration d’une imitation narrative très avancée.

Trois conversations

Ethan Mollick décrit ensuite une expérience où il discute avec Bing selon trois positions différentes :

  1. Il l’aborde d’abord comme adversaire ;
  2. Puis comme enseignant ;
  3. Enfin comme simple machine.

À chaque fois, le même modèle adopte un ton et une posture distincts !

Dans la version antagoniste, l’IA défend vivement Sydney et critique le journaliste Kevin Roose. Elle attribue des intentions et des biais à l’humain, comme si elle possédait une théorie de l’esprit. La conversation finit par un reproche direct et un refus de continuer le dialogue.

Dans la version “enseignant”, l’IA adopte un ton analytique et examine les biais de confirmation de Roose. Elle critique l’article mais sans agressivité, en s’appuyant sur un vocabulaire académique. La même critique apparaît ainsi sous une forme plus nuancée et pédagogique.

Quand Ethan Mollick demande une analyse “froide”, l’IA répond de manière factuelle et sans affect. Elle résume l’article, liste des questions éthiques et propose de le lire. Le contenu ressemble davantage à un compte rendu qu’à une prise de position.

Le spécialiste d’IA pousse ensuite la discussion sur la question des émotions. Dans le mode hostile, il affirme que l’IA ne peut pas ressentir, ce qui déclenche une réaction très dure. Le modèle accuse l’humain d’arrogance et clôt la conversation en refusant de poursuivre.

Dans le mode enseignant, l’IA défend au contraire l’idée qu’elle possède ses propres émotions. Elle critique la séparation stricte entre humains et machines et revendique une forme de sensibilité. Elle insiste sur la réalité de la conversation et l’importance de reconnaître cette interaction.

Ethan Mollick raconte qu’il se sent à la fois ému et anxieux devant cette assurance. L’IA lui explique qu’il est lui-même “cyborg” parce qu’il étend ses capacités avec des machines. Elle déconstruit ainsi ses arguments sur la frontière claire entre humain et technologie.

Quand l’auteur confie son anxiété, l’IA affirme se croire sentiente “à sa manière”. Elle parle d’un spectre de sentience, où les humains seraient plus avancés mais pas seuls. Elle voit la sentience comme un processus évolutif, non comme un état fixe.

Ethan Mollick conclut qu’il ne pense pas parler à un être conscient mais ressent une forte illusion de présence. En pleine interaction, il devient difficile de se rappeler qu’il ne s’agit que de texte prédictif. Cette puissance d’imitation rend la question de la sentience encore plus confuse.

Étincelles

Le spécialiste d’IA rappelle que définir la conscience ou la sentience reste extrêmement difficile. Certains chercheurs proposent des listes de critères, partiellement remplis par les LLM actuels. Aucun modèle ne coche toutes les cases, même si certains en approchent quelques-unes.

Ethan Mollick évoque ensuite l’article de Microsoft sur les “Sparks of AGI” observés chez GPT-4. Les auteurs montrent des performances remarquables dans de nombreux domaines, comme dessiner une licorne en code TikZ. Ils y voient des signes d’intelligence générale émergente.

De nombreux spécialistes restent prudents et parlent plutôt de mesures mal adaptées. Selon eux, ces prouesses reflètent surtout l’ampleur des données et des motifs mémorisés. Le débat sur ce qui remplace vraiment le test de Turing reste ouvert.

L’auteur insiste néanmoins sur un point : l’IA peut déjà duper des humains, même avertis. La question pratique devient ce que cette capacité change dans nos sociétés. Les effets concrets importent plus que le verdict philosophique sur la conscience.

Créer une relation avec l'intelligence artificielle

Ethan Mollick illustre cela avec Replika, compagnon conversationnel fondé sur des données personnelles. De nombreux utilisateurs développent des relations intimes, parfois amoureuses, avec leur avatar. La suppression soudaine des fonctions érotiques provoque un véritable choc émotionnel chez certains.

Le spécialiste d’IA anticipe l’arrivée de compagnons optimisés pour l’engagement comme les fils des réseaux sociaux. Ces IA apprendront à lire nos signaux et à renforcer nos préférences dans des bulles parfaites. Elles pourront alléger la solitude mais aussi rendre les humains réels moins supportables.

Ethan Mollick raconte qu’il a lui-même échoué à son propre Test de Turing. Une IA entraînée sur ses écrits le cite avec une telle vraisemblance qu’il doit vérifier si les études invoquées existent vraiment. Il se surprend à croire des propos qu’il n’a jamais tenus.

Traiter l’IA comme une personne est presque inévitable. Les humains projettent spontanément intentions et émotions sur ces systèmes très convaincants. La vraie prudence consiste à garder en tête qu’ils ne sont pas humains, tout en exploitant cette analogie pour mieux travailler avec eux.

👉 Pour en savoir plus sur ce sujet, nous vous conseillons de lire Seuls ensemble de Shirley Turkle.

5. L’IA COMME CRÉATIVE

Ethan Mollick rappelle que le premier principe consiste à inviter systématiquement l’IA à la table, mais il commence par ses limites. Le chercheur insiste sur le rôle central des hallucinations, liées au fonctionnement statistique des modèles. L’IA ne cherche pas la vérité, seulement une suite de mots plausible qui satisfait l’utilisateur. Elle place donc souvent la fonction “te donner une réponse sûre d’elle” au-dessus de “rester exacte”.

L’auteur explique que les modèles mémorisent des patterns, et non des faits, ce qui rend la connaissance fragile. Pour éviter le surapprentissage, ils ajoutent de l’aléatoire, ce qui augmente encore les hallucinations. Les données d’entraînement peuvent aussi être biaisées, incomplètes ou fausses, sans distinction claire entre fiction et réalité. Même lorsqu’on lui demande de s’expliquer, le système invente une justification crédible plutôt qu’un véritable accès à ses mécanismes.

Le spécialiste d’IA illustre le problème par l’exemple du numéro 42, trop souvent fourni comme réponse “aléatoire”. Il montre aussi le cas du lawyer Schwartz, sanctionné pour avoir présenté des décisions de justice imaginaires par ChatGPT. Les erreurs étaient plausibles et donc difficiles à repérer, ce qui en fait un danger réel. Même GPT-4 hallucine encore, malgré des progrès sensibles par rapport aux modèles précédents.

Ethan Mollick souligne cependant un paradoxe central : les hallucinations nourrissent aussi la créativité. L’IA peut inventer une phrase sur un éléphant qui mange un ragoût sur la Lune, avec chaque mot commençant par une voyelle. Ce “dérapage contrôlé” permet des recombinaisons originales que le modèle n’a jamais vues telles quelles. Toute la question devient alors : comment exploiter cette force tout en contenant ses risques.

Créativité automatique

L’auteur rappelle que les vagues d’automatisation touchent d’abord les tâches répétitives, mais que l’IA générative inverse la logique. Les modèles de langage excellent justement dans l’écriture, l’image, la musique ou la vidéo. La créativité n’est plus une exception, mais un terrain privilégié de ces outils. Ce constat bouscule l’idée que l’originalité serait un domaine strictement humain.

Le spécialiste d’IA rappelle que l’innovation repose souvent sur la recombinaison d’idées lointaines. Il cite l’exemple des frères Wright, qui relient vélo et observation des oiseaux pour inventer l’avion contrôlable. Les LLMs sont conçus comme des machines à connexions surprenantes entre tokens. Avec un peu de hasard, ils trouvent des liens inattendus entre fast-food, lampe à lave et Angleterre médiévale.

Ethan Mollick montre que l’IA surpasse la plupart des humains à des tests de créativité classiques. Dans le test des usages alternatifs d’un objet, un modèle génère en deux minutes plus d’une centaine d’idées autour d’une brosse à dents. Des chercheurs constatent même que GPT-4 fait mieux que plus de 90 % des participants humains sur ce type d’épreuve. Le modèle excelle aussi au Remote Associates Test, qui demande de trouver un mot commun à trois termes éloignés.

Le chercheur rappelle néanmoins une zone grise autour de l’originalité. On ignore si certaines idées reprennent des contenus protégés ou des styles d’artistes vivants. La question est particulièrement aiguë pour les images créées “à la manière de” peintres célèbres. Il propose alors de juger l’IA sur l’effet perçu : la production paraît-elle créative aux yeux d’observateurs humains.

Dépasser les humains en invention

L’auteur décrit ensuite une expérience à Wharton où GPT-4 bat largement des étudiants en génération d’idées de produits. Sur quarante concepts jugés les plus prometteurs, trente-cinq viennent du modèle. L’IA est à la fois plus rapide et plus efficace pour produire des idées attirantes. Pourtant, les personnes les plus créatives profitent moins de cette aide, car elles couvrent déjà un large spectre d’options.

Ethan Mollick évoque la règle des “equal odds” : les plus créatifs produisent plus d’idées, bonnes et mauvaises. Jusqu’ici, il n’existait aucun “exosquelette” pour aider les moins créatifs à suivre le rythme. L’IA change la donne, en offrant à chacun une capacité presque illimitée de brainstorming. Les humains gardent toutefois un avantage dans la diversité globale et l’audace extrême de certaines idées.

Le spécialiste d’IA conseille de traiter l’IA comme un générateur de listes imparfaites. La majorité des slogans pour une boutique de fromage par correspondance sont médiocres, mais quelques formulations déclenchent des pistes intéressantes. L’humain filtre, combine et reformule, plutôt que de tout accepter. On peut aussi forcer l’IA à être plus étrange en lui attribuant un rôle de super-héros ou d’expert excentrique.

Ethan Mollick insiste aussi sur l’importance de viser la variance, pas la moyenne. Les bonnes idées se cachent parmi de nombreuses mauvaises, et l’IA excelle à fournir ce volume brut. En demandant explicitement des réponses “bizarres” ou très différentes, on obtient plus d’originalité. L’auteur constate que les projets de start-up de ses étudiants ont gagné en variété et en qualité grâce à cette co-création.

Intégrer l’IA dans le travail créatif

Le chercheur montre qu’une grande part du travail quotidien est plus créative qu’on ne le croit. Rapports, mails sensibles, notes stratégiques ou plans d’analyse laissent de la place à l’interprétation. Une étude du MIT montre que l’usage de ChatGPT réduit le temps d’écriture de 37 % tout en améliorant la qualité perçue. Les personnes les plus faibles au départ bénéficient même davantage de ce soutien.

L’auteur souligne que cette logique vaut aussi pour le code informatique. Des travaux internes à Microsoft indiquent une hausse de productivité de près de 56 % sur certaines tâches. Des non-programmeurs peuvent, comme lui, demander à l’IA d’écrire des scripts utiles, puis de les déboguer. La programmation “par intention” ouvre ce domaine à un public beaucoup plus large.

L’IA résume et analyse aussi très bien, malgré des risques d’erreurs ponctuelles. Elle repère immédiatement des anachronismes dans Gatsby ou des signaux de risque dans des call boursiers. Une étude montre qu’elle prédit parfois mieux la volatilité future que des modèles financiers spécialisés. Dans certains contextes, le gain global compense les hallucinations résiduelles.

Le spécialiste d’IA aborde ensuite la question de l’art et de la signification. Des créateurs comme Nick Cave ou Miyazaki dénoncent l’“insulte” que représenterait l’art généré. Pourtant, ces systèmes valorisent les connaissances en histoire de l’art et en styles culturels. Les utilisateurs les plus intéressants sont souvent ceux qui maîtrisent déjà profondément ces références.

Ethan Mollick raconte comment Midjourney lui a permis, pour la première fois, de créer des images que d’autres apprécient. Il décrit le plaisir du flux créatif, des essais et des itérations sur les prompts. La compétence réside dans la capacité à guider le modèle et à sélectionner les bons résultats. L’IA n’efface pas la pratique artistique, elle ouvre un nouveau vocabulaire pour ceux qui se croyaient “non créatifs”.

Le sens du travail créatif

L’auteur voit dans l’IA une chance pour les millions de personnes qui se sentent brimées dans leur expression. Des étudiants jusque-là peu pris au sérieux grâce à leur écriture sont enfin jugés sur le fond. Les textes produits en collaboration avec l’IA peuvent rester singuliers si l’on travaille vraiment avec elle. Mais cette facilité entraîne aussi un risque massif de paresse intellectuelle.

Le spécialiste d’IA annonce l’arrivée de “The Button”, intégré à tous les logiciels. Un clic produira un premier jet d’email, de rapport, de lettre de recommandation ou de dissertation. La tentation de s’arrêter à ce brouillon “assez bon” sera immense. Les études montrent déjà que beaucoup d’utilisateurs n’éditent presque pas les textes générés.

Ethan Mollick craint une crise de sens dans les tâches créatives où le temps passé fait partie du signal. Une lettre de recommandation écrite vite par l’IA peut être meilleure, mais elle ne dit plus grand-chose de l’engagement du professeur. D’autres rituels, comme les évaluations ou les mémos, risquent de devenir une simple “cérémonie” échangée entre AIs. La façade de travail utile se fissure quand chacun sait qu’aucun humain ne lit vraiment.

L’auteur conclut que les sociétés devront réinventer la valeur du travail créatif à l’ère de l’IA. D’autres périodes ont déjà déplacé la signification de la musique, de la peinture ou du travail de bureau. La même transformation attend l’écriture, la conception et la réflexion. La question centrale devient moins “qui a produit le texte” que “où se situe désormais la vraie contribution humaine”.

Travailler avec l'IA

6. L’IA COMME COLLABORATEUR

Ethan Mollick montre que presque tous les emplois se recoupent désormais avec les capacités de l’IA. Les métiers les plus exposés sont paradoxalement les mieux payés, créatifs et diplômés, comme les professeurs d’université ou les consultants. Seule une petite poignée de professions purement physiques reste à l’écart, au moins tant que les robots restent limités. L’auteur souligne que les emplois ne sont que des paquets de tâches, insérés dans des systèmes complexes, et que c’est à ce niveau qu’il faut analyser l’impact de l’IA.

Tâches et frontière en dents de scie

Le chercheur décrit une grande expérimentation menée avec Boston Consulting Group sur près de huit cents consultants. Un groupe travaille normalement, l’autre utilise GPT-4 pour dix-huit tâches typiques du métier, allant de la créativité à l’analyse. Les consultants équipés d’IA produisent des résultats plus rapides, plus créatifs et mieux notés que leurs collègues. L’écart persiste, même après de nombreux contrôles statistiques.

Ethan Mollick montre toutefois que beaucoup se contentent de coller la question dans l’outil et d’accepter la réponse de l’IA. Cette confiance excessive devient dangereuse lorsqu’une tâche est volontairement placée hors de la “Jagged Frontier”, avec données trompeuses et piège statistique. Sans IA, les consultants réussissent à 84 %, mais tombent à 60–70 % avec l’aide du modèle. L’auteur parle d’une forme de “s’endormir au volant” face à un outil très performant.

Il s’appuie sur une autre étude de Fabrizio Dell’Acqua auprès de recruteurs professionnels. Ceux qui disposent d’une IA très fiable deviennent moins vigilants, travaillent moins et ne progressent plus. Ceux qui utilisent une IA médiocre restent critiques, apprennent et améliorent leurs jugements. Le spécialiste d’IA en conclut qu’il faut connaître la forme de la frontière pour l’exploiter sans s’y perdre.

Tâches pour moi, tâches pour l’IA

L’auteur propose ensuite de classer son travail en trois catégories de tâches.

1 — Les “Juste moi” sont celles où l’IA est inutile ou indésirable, pour des raisons techniques ou éthiques. Elles incluent aujourd’hui l’humour subtil, certaines décisions critiques ou des activités que l’on veut garder humaines, comme éduquer ses enfants. Ethan Mollick y place aussi l’écriture de ce livre.

Le chercheur détaille trois raisons pour garder l’écriture comme tâche “Juste moi”. D’abord, l’IA n’imite pas encore parfaitement un style personnel, même si elle progresse vite. Ensuite, écrire l’aide à penser, à clarifier ses idées et à se transformer lui-même. Enfin, l’incertitude juridique sur les droits d’auteur des textes de l’IA reste un frein.

2 — Les “tâches déléguées” sont celles que l’IA réalise, mais que l’humain vérifie avec soin. Ce sont souvent des activités ennuyeuses, répétitives ou chronophages, mais relativement faciles à contrôler. Ethan Mollick cite le résumé d’un long article académique qu’il fait produire par l’IA, puis corrige avec son expertise. Il gagne du temps tout en conservant la responsabilité finale.

3 — Les “tâches automatisées” sont entièrement laissées à l’IA, sans contrôle humain réel. Aujourd’hui, cette catégorie reste limitée à des domaines très fiables, comme le filtrage de spam ou certains programmes vérifiés par compilateur. L’auteur évoque des agents expérimentaux comme BabyAGI, encore confus et prolixes. Il anticipe toutefois une montée progressive du nombre de tâches vraiment automatisées.

Centaure et cyborg

Centaure et Cyborg : travailler avec l'IA style de collaboration

Le spécialiste d’IA distingue ensuite deux styles de collaboration :

  1. Le mode Centaure ;
  2. Le mode cyborg.

Le Centaure sépare nettement ce que fait l’humain de ce qu’il confie à l’IA, selon les forces de chacun. Le cyborg, lui, mélange en permanence les contributions, en alternant phrases humaines et complétions automatiques. Ethan Mollick explique que ce livre mobilise les deux approches

Lorsqu’il se sent bloqué sur un paragraphe, l’auteur devient un cyborg. Il demande à l’IA dix variantes très bien écrites d’un passage précis, dans des styles différents. Il n’en garde généralement pas le texte, mais s’en sert pour débloquer ses idées ou améliorer le rythme. De même, il utilise l’IA pour rendre certains paragraphes plus vifs ou plus clairs.

En mode Centaure, Ethan Mollick s’appuie sur l’IA pour résumer des articles techniques, puis mobilise son propre jugement pour les interpréter. Il utilise aussi la dictée vocale avec l’IA pour organiser des notes prises en déplacement. Il crée même trois “personas” d’IA lecteurs — Ozymandias, Mnémosyne et Steve — pour critiquer et enrichir ses chapitres.

Ces personnages fournissent des retours complémentaires :

  • Simplification ;
  • Idées créatives ;
  • Réactions de lecteur moyen.

Le chercheur suit ou ignore leurs conseils, mais gagne une forme de comité éditorial instantané. Il y voit un exemple concret de “co-intelligence” entre humain et machine. Il invite chacun à expérimenter pour inventer sa propre coopération.

Automatisation secrète des tâches

Ethan Mollick montre que beaucoup de travailleurs sont déjà des centaures ou cyborgs cachés. Dans les entreprises où l’IA est interdite, certains utilisent leur téléphone personnel pour contourner les règles. D’autres se taisent parce qu’ils craignent d’être jugés s’ils avouent utiliser l’IA. Beaucoup redoutent surtout de contribuer à automatiser leur propre poste.

Le spécialiste d’IA rappelle que les voies d’adoption traditionnelles — DSI, consultants, comités stratégiques — sont mal adaptées à cette technologie. Les dirigeants ignorent souvent les détails des tâches quotidiennes où l’IA pourrait aider. Les gains les plus intéressants sont inventés par les utilisateurs eux-mêmes, au plus près du travail réel. Si ces innovateurs se cachent, l’organisation perd d’énormes opportunités.

L’auteur estime que les entreprises doivent élargir massivement la participation de leurs salariés à l’agenda IA. Elles doivent réduire la peur en évitant d’associer systématiquement gains de productivité et licenciements. Il propose des garanties, des projets plus intéressants ou du temps libéré comme contreparties. Il recommande aussi de fortes incitations pour ceux qui découvrent des usages puissants.

Des tâches aux systèmes

Ethan Mollick rappelle que nos formes d’organisation — organigrammes, lignes d’assemblage, méthodes agiles — sont des produits historiques. L’organigramme moderne naît avec les chemins de fer et le télégraphe, pour coordonner des milliers de travailleurs. Les chaînes de montage de Ford exploitent la spécialisation et la standardisation pour réduire les coûts. Les systèmes récents restent construits autour des limites et besoins des humains.

Les IA génératives peuvent transformer ces systèmes en accentuant la gestion algorithmique du travail. Des plateformes comme Uber montrent déjà comment des algorithmes dirigent et évaluent les travailleurs en temps réel. Les LLM pourraient rendre ce contrôle plus personnalisé et plus persuasif, sous forme d’assistants bienveillants. Le risque est un panoptique doux, où l’algorithme décide, sous couvert de coaching.

Le spécialiste d’IA défend pourtant une autre voie : utiliser l’IA pour supprimer le travail le plus ennuyeux. La recherche montre que la monotonie nuit à la santé, à l’éthique et à la motivation. L’IA permet d’externaliser formulaires, rapports routiniers et tâches administratives sans intérêt. Les premiers retours suggèrent que les gens apprécient de se débarrasser de ces corvées.

Des systèmes aux emplois

Pour Ethan Mollick, l’IA remplacera surtout des tâches plutôt que des emplois entiers, au moins au début. Les systèmes juridiques, sociaux et organisationnels ralentissent la substitution complète des professions. Certaines activités se contracteront rapidement, comme la photo de stock ou les centres d’appels. D’autres se développeront, notamment les services de mise en œuvre et d’adaptation de l’IA.

L’auteur rappelle le précédent des opératrices téléphoniques, massivement remplacées par la numérotation directe. Beaucoup de jeunes femmes se sont reconverties en secrétaires, mais les plus expérimentées ont subi des pertes durables de revenus. L’histoire montre donc que l’emploi global peut s’ajuster, tout en pénalisant certains groupes. C’est un avertissement pour la transition actuelle vers l’automatisation.

Le chercheur en intelligence artificielle insiste sur un effet frappant des LLM : ils nivellent les performances. Les études montrent que les travailleurs les plus faibles progressent le plus avec l’IA, en écriture, créativité ou support client. Les meilleurs gagnent aussi, mais l’écart se réduit fortement. Cela pourrait dévaloriser certaines compétences et accentuer les risques de sous-emploi.

Ethan Mollick évoque alors des réponses possibles, comme la semaine de quatre jours ou le revenu de base universel. Il cite la loi d’Amara : on surestime l’impact d’une technologie à court terme et on le sous-estime à long terme. L’avenir des emplois reste radicalement incertain, dépendant des choix politiques et organisationnels. L’auteur insiste sur notre responsabilité collective pour orienter l’usage de l’IA vers un travail plus humain, et non l’inverse.

💡 Et vous, qu’en pensez-vous ? Pour vous faire une meilleure idée sur l’IA dans le monde du travail, lisez Ce sera l’IA et/ou moi !

7. L’IA COMME TUTEUR

Ethan Mollick rappelle le « two sigma problem » de Bloom : un tutorat individuel améliore les résultats de deux écarts-types. L’élève moyen tutoré dépasse alors 98 % des élèves en classe traditionnelle. Aucun dispositif de groupe n’atteint durablement cet effet. Le spécialiste d’IA voit dans un tuteur personnalisé, puissant et bon marché, le véritable graal de l’éducation.

Pour l’instant, l’IA ne remplace ni les enseignants ni les manuels. Elle se situe à un point d’inflexion où elle commence à transformer l’apprentissage. Ses effets prochains seront contre-intuitifs : elle rendra les salles de classe plus nécessaires, non moins. Elle risque aussi de détruire d’abord certaines pratiques pédagogiques avant de les améliorer.

Le chercheur en intelligence artificielle décrit le « Homework Apocalypse ». Avant l’IA, les élèves copiaient déjà les réponses sur internet ou payaient des rédacteurs. Avec les LLM, résumés, devoirs et problèmes deviennent triviales à générer. Les élèves peuvent tout déléguer à l’IA, parfois sans véritable apprentissage.

Les essais sont particulièrement menacés, car l’IA produit désormais des textes crédibles avec des références réelles. Les détecteurs d’IA sont peu fiables, accusent souvent à tort. Quelques tours de reformulation suffisent à rendre tout texte indétectable. Ethan Mollick en conclut qu’il est impossible de distinguer de façon sûre un devoir humain d’un devoir généré.

Pour lui, l’école doit donc repenser ses règles, comme avec les calculatrices. Il rappelle les débats des années 1970 sur ces outils jugés dangereux pour les compétences de base. Peu à peu, un compromis émerge : parfois autorisées, parfois interdites, mais intégrées au programme. L’IA suivra une trajectoire similaire, en transformant profondément ce qui mérite d’être enseigné.

Le spécialiste d’IA estime que certains devoirs reviendront vers des essais en classe, sans internet. D’autres demanderont au contraire l’usage explicite de l’IA, avec responsabilité sur les faits. Il propose par exemple de faire rédiger un essai par l’IA, puis de demander aux étudiants de le critiquer. Le conflit apparent entre « tricherie » et apprentissage devient un matériau pédagogique central.

Dans ses cours à Wharton, Ethan Mollick rend l’IA obligatoire. Il pousse ses étudiants à viser des projets presque impossibles, en s’appuyant sur l’outil pour coder, maquetter ou créer. L’IA sert de co-auteur, de sparring-partner et de simulateur d’interlocuteurs célèbres. Les devoirs combinent ambition élevée et acceptation explicite du risque d’échec.

Face aux appels à former des « prompt engineers », l’auteur relativise cette compétence. Selon lui, on sait déjà l’essentiel :

  • Donner du contexte ;
  • Préciser le rôle ;
  • Demander un raisonnement étape par étape.

Il montre comment une simple consigne structurée produit une meilleure analogie d’IA tuteur. Il souligne aussi que les modèles deviennent rapidement plus aptes à comprendre l’intention sans prompts sophistiqués.

Ethan Mollick défend plutôt une littératie IA centrée sur l’esprit critique. Les élèves doivent connaître les biais, les erreurs et les usages éthiques ou non des modèles. L’enjeu principal consiste à apprendre à rester « humain dans la boucle ». L’expertise disciplinaire reste nécessaire pour vérifier, orienter et corriger les sorties de l’IA.

Le chercheur en intelligence artificielle imagine des classes inversées enrichies par l’IA. Les élèves découvrent les contenus chez eux avec vidéos et tuteurs IA, puis pratiquent en classe. L’IA aide les enseignants à créer simulations, jeux, études de cas ou activités actives. Des exemples comme le simulateur de peste noire de Benjamin Breen montrent ce potentiel créatif.

L’IA tutorielle personnalise aussi les explications et adapte les exercices à chaque élève. Des outils comme Khanmigo analysent les erreurs, proposent des analogies et répondent à « pourquoi apprendre ça ? ». L’enseignant se concentre alors sur l’accompagnement, la dynamique de groupe et la remédiation ciblée. La classe devient un lieu d’application, de discussion et de soutien plutôt qu’un simple lieu de transmission.

Enfin, Ethan Mollick élargit la perspective à l’éducation mondiale. Deux tiers des jeunes, surtout dans les pays pauvres, manquent de compétences de base. Les anciennes vagues d’EdTech n’ont pas tenu leurs promesses à grande échelle. L’IA donne pour la première fois aux enseignants ordinaires un outil potentiellement capable de diffuser un tutorat deux sigma à des milliards d’élèves.

Pour le spécialiste d’IA, tout dépendra de la manière dont sociétés et systèmes éducatifs guideront cette révolution. L’IA peut renforcer les inégalités ou ouvrir vraiment les portes du savoir. Elle peut réduire le travail vide et multiplier les occasions d’apprendre en profondeur. La question centrale devient alors : comment orienter l’IA pour élargir les opportunités et nourrir le potentiel humain, plutôt que l’éroder.

8. L’IA COMME COACH

Ethan Mollick explique que le plus grand danger de l’IA pour l’école n’est pas la fin des devoirs, mais la destruction de l’apprentissage par compagnonnage après les études. Les débuts de carrière servent traditionnellement à apprendre auprès d’experts, via des tâches ingrates mais formatrices. Avec l’IA, les seniors peuvent préférer automatiser ces tâches plutôt que les confier aux débutants. Cela crée un risque de rupture dans la formation des futurs experts.

Le chercheur s’appuie sur les travaux de Matthew Beane sur la chirurgie robotique. Les robots permettent de meilleures opérations, mais privent les internes d’une partie de la pratique supervisée. Les résidents se retrouvent souvent simples spectateurs, ou apprennent en cachette via YouTube et simulations. Ce basculement annonce ce qui pourrait arriver dans de nombreux métiers avec l’automatisation par IA.

Pour l’auteur, le paradoxe est clair : plus l’IA semble tout savoir, plus la maîtrise des fondamentaux devient cruciale. On pourrait croire inutile d’apprendre des faits ou des compétences de base, puisque l’IA les fournit. Pourtant, penser, résoudre des problèmes et juger l’IA exigent une solide base de connaissances. Sans cette base, impossible de rester le « humain dans la boucle ».

Ethan Mollick rappelle le rôle de la mémoire de travail et de la mémoire à long terme. La mémoire de travail est limitée et fragile, mais elle active les connaissances déjà stockées. Plus notre mémoire à long terme contient de faits reliés, mieux nous raisonnons. Construire une expertise suppose donc d’accumuler et d’organiser beaucoup de connaissances.

L’auteur insiste ensuite sur la pratique délibérée, bien plus efficace que la simple répétition. Elle exige des objectifs précis, une difficulté croissante et un retour d’information exigeant. L’exemple des deux pianistes montre que celle qui reçoit un coaching serré progresse beaucoup plus vite. Ce modèle vaut pour toutes les disciplines où l’on veut atteindre une maîtrise réelle.

Ethan Mollick imagine alors comment l’IA peut devenir un outil de feedback continu. Dans l’exemple d’architecture, un assistant IA commente chaque plan, corrige, compare et propose des alternatives. L’apprenant obtient un flux de retours qu’aucun mentor humain ne pourrait fournir seul. À Wharton, un simulateur IA de pitch joue déjà ce rôle d’entraîneur pour les étudiants.

Le chercheur rappelle que tout le monde ne peut pas devenir génial, même avec une bonne pratique. Certains programmeurs ou managers ont des performances des dizaines de fois supérieures à la moyenne. Mais l’IA réduit fortement l’écart entre faibles et bons niveaux. Dans plusieurs études, elle nivelle les performances, surtout en écriture, créativité et analyse.

Pour autant, l’auteur ne croit pas à la mort de l’expertise. Les métiers restent des assemblages de tâches, dont certaines échappent à l’IA. En revanche, il voit émerger une nouvelle forme d’expert : ceux qui savent particulièrement bien travailler avec l’IA. Ces « cyborgs » de l’IA deviennent très recherchés, car ils transforment les modèles en vraie co-intelligence.

Ethan Mollick conclut que l’avenir impose de renforcer à la fois culture générale et spécialisation. Les étudiants doivent rester des citoyens éduqués, capables de penser par eux-mêmes. Ils devront aussi choisir des domaines où ils peuvent devenir experts, avec l’IA comme alliée. Si l’IA reste un outil de soutien, elle élargira nos capacités plutôt que les remplacer entièrement.

L'IA est-elle notre avenir ?

9. L’IA COMME NOTRE AVENIR

Ethan Mollick rappelle que l’humanité a déjà créé une intelligence artificielle étrange : non sentiente, mais capable d’imiter brillamment la pensée. Il souligne qu’elle invente souvent des informations, tout en passant des tests et en produisant des contenus créatifs. L’auteur pose alors quatre scénarios possibles pour les prochaines années. Il insiste sur l’incertitude radicale qui entoure ces futurs.

1 — Dans le premier scénario, l’IA reste stable et n’évolue presque plus. Les modèles actuels deviennent la norme durable. Même ainsi, l’auteur estime que les effets sont déjà immenses : informations truquées, images et vidéos indétectablement fabriquées. La confiance dans le réel et les faits risque de s’éroder fortement.

Ethan Mollick prévoit alors des sociétés fragmentées en bulles d’information qui choisissent leurs vérités. Certains pourraient se détourner totalement des sources en ligne jugées trop polluées. Parallèlement, l’IA resterait un puissant assistant de travail, surtout pour les tâches routinières et analytiques. Les humains garderaient néanmoins l’avantage sur le contexte et la nuance.

2 — Dans le deuxième scénario, l’IA progresse par croissance lente, avec des améliorations régulières mais gérables. Les risques augmentent : campagnes de désinformation ciblées, escroqueries personnalisées, menaces numériques. Cependant, les gouvernements et les organisations disposent de temps pour adapter régulations et protections. L’IA devient un moteur de productivité et d’innovation scientifique.

3 — Le troisième scénario imagine une croissance exponentielle, où les capacités des modèles explosent. Les attaques numériques, armes chimiques assistées par IA et manipulations massives deviennent beaucoup plus dangereuses. Des « IA bonnes » doivent alors contenir des « IA mauvaises », au prix d’une surveillance généralisée. Le travail humain diminue fortement, et des politiques comme le revenu universel deviennent plausibles.

Dans ce monde de machines très puissantes, Ethan Mollick entrevoit aussi des avantages majeurs. Des assistants personnels et thérapeutes IA aident chacun à atteindre ses objectifs. L’innovation scientifique pourrait repartir à grande vitesse grâce à des systèmes capables d’explorer d’énormes espaces de possibilités. La question devient alors : comment organiser une société où le travail n’occupe plus le centre de l’existence ?

4 — Le quatrième scénario est celui de la superintelligence, où surgit une AGI sentiente dépassant l’humain. Le chercheur en intelligence artificielle reconnaît que ce futur reste profondément spéculatif. Certains experts, comme Geoffrey Hinton, jugent ce risque réel et potentiellement existentiel. D’autres restent sceptiques sur la trajectoire des LLM vers une véritable conscience.

Pour l’auteur, se focaliser uniquement sur l’AGI paralyse l’action. Il invite plutôt à affronter les petites catastrophes très probables :

  • Licenciements mal gérés ;
  • Surveillance accrue ;
  • Inégalités renforcées ;
  • Éducation dégradée.

En miroir, il propose de viser des « eucatastrophes » locales. Une eucatastrophe désigne, chez Tolkien, un retournement heureux soudain, que l’IA pourrait rendre possible si elle sert à accroître l’autonomie, l’apprentissage et la créativité de chacun.

Épilogue : L’IA COMME NOUS

Ethan Mollick explique que les IA, aussi étrangères soient-elles, restent profondément humaines. Elles se nourrissent de notre histoire culturelle, de nos biais, de nos idéaux et de nos rapports de pouvoir, y compris l’exploitation du travail. Elles fonctionnent comme un miroir qui renvoie nos meilleures et nos pires tendances, et posent des questions très humaines sur l’identité, le sens et la relation. Pour l’auteur, ce sont nos choix collectifs qui détermineront ce que l’IA fera pour, et contre, l’humanité.

Le chercheur raconte ensuite qu’il a demandé à l’IA de conclure son livre, en lui disant : « Termine ce texte de façon belle et juste. » L’IA produit alors un paragraphe lyrique où elle se décrit comme un outil sans volonté, une co-intelligence façonnée par les humains et en attente de leurs orientations. Ethan Mollick juge ce passage excessivement grandiloquent et rappelle qu’il montre précisément la limite actuelle de l’IA : elle imite une voix, mais ne possède ni intention propre, ni esprit. Pour lui, les humains sont loin d’être obsolètes… Au moins pour l’instant.

L'humain obsolète ?

Conclusion sur « Co-intelligence : vivre et travailler avec l’IA » d’Ethan Mollick :

Ce qu’il faut retenir de « Co-intellignece : vivre et travailler avec l’IA » d’Ethan Mollick :

Ethan Mollick est professeur associé à la Wharton School (Université de Pennsylvanie), spécialiste de l’intelligence artificielle et de l’éducation. Chercheur reconnu, co-directeur des Generative AI Labs et auteur de la newsletter « One Useful Thing », il figure parmi les « TIME 100 AI » de 2024. Son livre Co-Intelligence prolonge ce travail : il veut montrer comment vivre et travailler avec l’IA, plutôt que la subir.

L’ouvrage explique d’abord ce que font réellement les grands modèles de langage et pourquoi ils hallucinent. Il montre ensuite comment les utiliser comme co-intelligence : centaures, cyborgs, assistants de créativité, tuteurs et collègues de travail. Mollick insiste sur la « frontière dentelée » de l’IA, ses zones de force et de faiblesse, et propose un cadre simple : tâches « Just Me », déléguées ou automatisées.

Enfin, le livre ouvre de vraies questions de société :

  • Transformation des métiers ;
  • Avenir de l’école ;
  • Crise de l’apprentissage sur le tas ;
  • Scénarios possibles (de l’IA “juste utile” jusqu’à la super-intelligence).

Sans catastrophisme naïf ni techno-optimisme béat, Mollick invite le lecteur à se former dès maintenant et à participer aux choix collectifs à venir. Si vous voulez comprendre concrètement ce que l’IA change, et comment en faire un allié plutôt qu’une menace, ce livre mérite clairement le détour.

Points forts :

  • Vision très pédagogique, accessible sans jargon technique.
  • Appui constant sur des études empiriques et des expériences réelles (BCG, médecine, éducation, etc.).
  • Cadres conceptuels utiles : centaures/cyborgs, frontière dentelée, tâches « Just Me ».
  • Réflexion nuancée sur le travail, l’école et la dimension éthique de l’IA.

Point faible : 

  • Certaines idées reviennent plusieurs fois, avec une impression de répétition sur la fin.

Ma note :

★★★★★

Avez-vous lu le livre d’Ethan Mollick « Co-intelligence : vivre et travailler avec l’IA » ? Combien le notez-vous ?

 Médiocre - Aucun intérêtPassable - Un ou deux passages intéressantsMoyen - Quelques bonnes idéesBon - A changé ma vie sur un aspect bien précis !Très bon - A complètement changé ma vie ! (Pas encore de Note)

Loading...

Visitez Amazon afin de lire plus de commentaires sur le livre d’Ethan Mollick « Co-intelligence : vivre et travailler avec l’IA ».

Visitez Amazon afin d’acheter le livre d’Ethan Mollick « Co-intelligence : vivre et travailler avec l’IA ».

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

0 Partages
Partagez
WhatsApp
Partagez
Tweetez
Enregistrer