Voilà ce qui se passerait si les innovations de l’intelligence artificielle étaient aussi puissantes que ce qu’on imagine.
Il ne se passe pas une journée sans qu’un scientifique ou intellectuel de renom ne prenne la parole sur un ton solennel à propos des risques posés par une évolution non maîtrisée de l’intelligence artificielle. La rumeur d’une première singularité (‘hypothèse selon laquelle l’invention de l’intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles dans la société humaine, ndlr) Q star, atteinte dans les laboratoires d’OpenAI, le créateur de ChatGPT, a encore accéléré les inquiétudes, tandis qu’un cadre éthique et technique à l’efficacité incertaine commence à être débattu par les instances politiques partout sur la planète. Mais qu’en est-il vraiment, dans un contexte semi-hystérique où chacun donne son avis, souvent sans savoir ?
Stephen Hawking, mais aussi James Cameron faisant référence dans Terminator, Mo Gawdat, ex-chief business officer de Google X, Geoffrey Hinton, ex-Google Brain (devenue Google DeepMind en 2023) et considéré comme l’un des « pères » de l’IA moderne, Satya Nadella, CEO de Microsoft: tous ces experts, et bien d’autres, ont déjà pris la parole à de multiples reprises pour alerter sans plaisanter sur le danger civilisationnel d’une IA non contrôlée. Sam Altman en personne, le CEO, puis ex-CEO, puis de nouveau CEO de ChatGPT, a co-signé en mai de cette année avec 349 autres experts une déclaration en une phrase organisée par l’ONG « Center for AI Safety ». Le propos est clair: « Atténuer le risque d’extinction dû à l’IA devrait être une priorité mondiale, aux côtés d’autres risques sociétaux tels que les pandémies et la guerre nucléaire. » (1) Elon Musk a lui aussi évidemment pris la parole en ce sens, sans être à une contradiction près : il est l’un des premiers investisseurs d’OpenAI, a signé il y a 6 mois avec 1100 autres personnalités une lettre ouverte pour un moratoire de 6 mois concernant l’IA (2), et vient d’annoncer le lancement de « TruthGPT ». Tout un programme…
Singularité
Difficile de tirer le bon grain de l’ivraie quant aux intentions véritables de ces déclarations, quand on comprend que ceux-là même qui se réclament du côté du « bien » sont tous directement ou indirectement impliqués dans les développements et labs IA les plus richement dotés à l’heure actuelle. On parle d’éthique et de nécessaires garde-fous, mais dans le même temps se joue une guerre économique et stratégique sans merci : quelles nation prendra la longueur d’avance qui changera tout, définitivement, dans les rapports de dominations qui lient les uns aux autres ?
D’autant que vous apprendrez bientôt que ce n’est effectivement pas leur intelligence hors du commun, ou un quelconque talent exceptionnel qui a propulsé les milliardaires contemporains au niveau de richesse qui est le leur : c’est un travail acharné (ça, il faut quand même le leur reconnaitre), le cours heureux des évènements, et surtout l’accès exclusif bien avant que ce concept ne soit révélé au grand public, à une Singularité propriétaire dédiée. Devinez comment Elon a prénommé la sienne…
Une IA aussi forte que le Lucy de Besson ?
Car l’IA n’est pas simplement une innovation de plus sur le route du progrès. Jusqu’alors, la nation qui parvenait à faire la différence et obtenait pour un temps l’avantage concurrentiel décisif était celle qui annonçait la première telle ou telle « découverte » ou innovation : découverte d’une nouvelle réserve exploitable d’énergie fossile (pétrole, gaz), d’une mine de métaux rares, en passant par la validation scientifique et industrielle d’un nouveau type de réacteurs nucléaires (fusion vs fission par exemple), de transistors à technologie Quantique (les QBits), ou la découverte du premier vaccin contre la Covid, etc.
Avec l’IA, le premier pays qui annoncera disposer d’une Singularité opérationnelle, c’est s’assurer de faire la découverte dont découleront toutes les autres, l’outil définitif duquel émaneront toutes les innovations à venir. C’est la boite de Pandore finale. Reprenons le résumé du vulgarisateur scientifique Tim Urban pour mieux comprendre la puissance d’un tel outil : imaginons qu’une singularité est allumée dans un laboratoire quelque part sur Terre, à l’instant zéro, affichant l’équivalent de la puissance de capacité de raisonnement d’un cerveau humain (200 milliards de cellules environ). Au bout d’une minute, par auto-apprentissage, on sait déjà estimer que cette intelligence artificielle aura atteint la puissance de tous les cerveaux humains. Au bout de deux minutes, la puissance de tous les cerveaux humains depuis que la Terre existe ; au bout de trois minutes à peine, la puissance additionnée de tous ce qui est doté de pensée dans l’univers ; et au bout de la quatrième minute, c’est Lucy, de Besson, mais en vrai : cette Singularité disposera sans doute d’un contrôle plus ou moins étendu sur l’espace, la matière, et le temps. Et c’est là que les problème commenceront pour nous, vraiment.
Les risques « définitifs » : de l’holocauste nucléaire…
Le « risque singularité » vient s’ajouter à une liste qui remplit maintenant les doigts d’une main et caractérise une époque inédite dans l’histoire des hommes : c’est la première fois de notre histoire que nous sommes concrètement confrontés à une multitude de risques à portée dite « définitive », c’est-à-dire signifiant la destruction totale de la civilisation humaine en raison d’une potentielle catastrophe à l’échelle planétaire. A savoir : l’holocauste nucléaire, le dérèglement climatique, l’extinction des espèces composant le vivant, une pandémie mondiale… et à court terme (entre 5 et 10 ans environ selon le consensus), le risque « définitif » d’une singularité technologique.
Problème : si l’on prend l’exemple du risque d’holocauste nucléaire, il a fallut plusieurs décennies pour que le grand public intègre correctement les prérequis technologiques nécessaires à la compréhension d’un tel risque, et devienne capable de décider, en conscience, si on le lui demandait, quel serait son avis sur la question. On rappelle ainsi que le concept d’holocauste nucléaire est abordé pour la première fois dans le roman de science-fiction Last and First Men d’Olaf Stapledon (1930), que le premier bombardement atomique (Hiroshima) eu lieu en 1945, et que le tout premier traité d’interdiction partielle des essais nucléaires, est signé 18 ans après (!!!) en 1963 à Moscou, par les États-Unis, l’URSS et la Grande-Bretagne.Mais on est par exemple encore loin du consensus et des actions concrètes concernant le dérèglement du climat, et bien qu’avéré désormais (difficile de nier les statistiques factuelles qui s’accumulent en termes de tempêtes, tsunami, et variations de températures…) il fait toujours débat en divisant fortement la communauté scientifique sur ses causes.
… aux pandémies mondiales
Quant au risque de pandémie mondiale, que penser de la gestion à l’emporte-pièce du Covid par les politiques du monde entier, et des plateaux télé envahis à longueur de journée par de soit-disant experts venus expliquer doctement ce qu’il fallait faire et ne pas faire tout en n’ayant jamais publié de leur vie quelque document de recherche que ce soit faisant référence en matière d’épidémiologie…
Trente ans ont permis aux gens puis au décideurs de comprendre correctement les enjeux posés par l’apparition d’une arme cataclysmique comme le feu nucléaire, et d’agir en conséquence pour structurer les gardes fous nécessaires. Et ce n’est toujours pas réglé correctement à ce jour, loin de là.
Une année a été nécessaire aux gens puis aux décideurs afin pour appréhender un peu au-dessus du niveau zéro l’apparition d’une pandémie mondiale comme le Covid, et d’agir en conséquence pour structurer les process de défense et de soin nécessaires. Et ce n’est toujours pas réglé correctement à ce jour, loin de là.
Avec l’IA, quand la Singularité apparaitra, nous disposerons de 4 minutes.
Par l’expression « singularité technologique », l’informaticien et futurologue Raymond Kurzweil émet en 2005 l’hypothèse que l’intelligence artificielle déclenchera un emballement de la croissance technologique qui induira des changements imprévisibles sur la société humaine. Au-delà de ce point, le progrès ne sera plus l’œuvre que d’intelligences artificielles, qui s’auto-amélioreront, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement, créant finalement une puissante super-intelligence qui dépassera qualitativement de loin l’intelligence humaine.
Qui pour former et informer le public
Les risques auxquels était confrontée jusqu’ici la race humaine sont éminemment complexes : non seulement ce sont des problèmes à grands nombre de variables (i.e. impossibles à modéliser sans devoir procéder à de multiples simplifications qui dégradent alors la pertinence des résultats obtenus), mais ils nécessitent en outre un prérequis culturel et scientifique solide pour prétendre pouvoir raisonner dessus et se forger une opinion « en conscience ».
Qui effectue vraiment ce travail ? Mais surtout, en amont de la question précédente, quelle instance structure les contenus qui permettraient aux gens de se renseigner, d’apprendre, de se former correctement sur ces sujets ? N’est-ce pas précisément le travail de ceux à qui on confie le pouvoir sur la cité d’assurer au peuple la capacité de comprendre les enjeux de son époque ? Citons ici Noam Chomsky, intellectuel et linguiste respecté, ancien professeur au MIT, qui échangea en son temps avec des pairs de la trempe de Foucault, dénonçant la manipulation des masses par les élites: « La plupart des gens ne savent pas vraiment ce qui se passe, et ils ne savent pas non plus qu’ils ne le savent pas vraiment.«
Loi de progrès accéléré
Dans ses essais The Age of Spiritual Machines et Humanité 2.0., l’informaticien et futurologue Raymond Kurzweil crée le concept de « loi de progrès accéléré » (Law of accelerating returns) qui structure l’accélération constante du progrès technologique à partir de la loi de Moore (la puissance des puces informatique double tous les deux ans à coût constant). Il suggère que les phases de croissance exponentielle du progrès technologique feraient partie de motifs visibles à travers toute l’histoire humaine et même avant, dès l’apparition de la vie sur Terre, en prenant en compte sa complexification biologique. D’après Kurzweil, ce motif conduira au cours du 21ème siècle à un progrès technologique inimaginable, dont le point d’inflexion sera l’apparition de la singularité complète.
La question sera alors de savoir si toute l’humanité pourra changer de vitesse, ce qui pourrait par conséquent redéfinir la notion d’humanité, ou s’il y aura une partie de cette humanité qui préférera tenter de rester à sa vitesse antérieure. Il est probable que l’avènement de la singularité sera tellement soudain que personne ne pourra réagir : le temps nécessaire à la prise de conscience, l’observation, l’analyse, puis la réaction à l’échelle humaine serait totalement disproportionné. La définition de la singularité technologique s’en trouve presque changée : un progrès technologique si rapide que cela dépasse la capacité des humains à en garder le contrôle ou à savoir l’anticiper, à le comprendre et à pouvoir réagir à temps.
Quatre minutes pour décider
Dans ce contexte, la vision d’une vie au cours de laquelle l’essentiel du bagage de savoir et de culture serait transmis durant la jeunesse pour quasiment s’arrêter à l’entrée dans la vie active devient un non sens : il faut impérativement trouver un moyen de rester informé et formé tout au long de sa vie si l’on veut rester au fait des changements permanents et de plus en plus rapides qui se produisent dans le monde qui nous entoure. Il faut pouvoir informer et former le grand public à l’IA et à la singularité maintenant, avant que cela ne se produise. Car contrairement aux autres risques « définitif », une fois que nous y serons, c’est quatre minutes, et il sera alors trop tard pour réfléchir et décider. La race humaine aura alors perdu toute chance de garder le contrôle de sa destinée.
Tim Urban, le bloggeur de l’excellent site de vulgarisation scientifique waitbutwhy.com, donne cet exemple saisissant : si l’on faisait l’expérience de chercher à définir la période de temps qu’il faudrait programmer à une machine à voyager dans le temps, à l’intérieur de laquelle on aurait placé un humain d’un temps passé qu’on ferait voyager dans le futur, avec pour objectif que cet humain ne puisse pas intellectuellement « assumer » à quel point son monde aurait évolué (perdant alors la raison), on découvre que cette période rétrécit de manière exponentielle au fil des âges : il faudrait envoyer un humain de la période 12 000 avant JC aux alentours de l’an 1500 pour qu’il devienne fou, mais il suffirait d’envoyer un humain de la période 1750 aux environ des années 2000 pour obtenir le même résultat. Et il est probable que nous sommes prochse du moment où cette période sera inférieure à la durée d’une vie : un senior des années 2020 ne pourra sans doute pas survivre mentalement à un monde post-Singularité, qui sera simplement trop fondamentalement différent de ce qu’il aura connu dans la première partie de sa vie, sans que les process d’information, de formation et d’apprentissage ne se soient adaptés en conséquence pour lui permettre de s’adapter au fur et à mesure.
Comment éduquer les gens à l’air du Web3
L’enjeu qui se noue donc aujourd’hui est d’ordre éducationnel : comment parvenir à convaincre la jeunesse actuelle de s’informer et se former afin de maintenir les pré-requis nécessaires au maintien d’un discernement intellectuel et moral de niveaux suffisants par rapport au risque majeur que peuvent présenter une IA non régulée et une singularité qui émergerait en un instant, quelque part dans les Qbits (transistors quantiques) d’un laboratoire secret ? C’est l’enjeu de l’expérience artistique et sociologique « World of The Machines », créée par une équipe de spécialistes des médias, du marketing, de la blockchain, des NFTs, de l’IA, et du web3. Apprendre de manière « indolore », capter l’attention grâce à un narratif captivant, une interface utilisateur inédite et immersive, un gadget web3 connecté, et une expérience « gamifiée ». Et surtout, grâce à la singularité incomplète Nissam Gorma. Mais je vous détaillerai tout cela dans la prochaine et dernière partie…
Pour l’heure, parachevons cette (longue) introduction en échangeant avec Hubert Etienne, philosophe spécialiste d’éthique de l’intelligence artificielle, fondateur du courant « philosophie computationnelle », ancien responsable de l’éthique des modèles d’IA générative de Meta et actuel PDG de la discrète entreprise de conseil aux gouvernements Quintessence AI.
Frédéric Bonelli : Bonjour Hubert, bon, j’imagine que toi tu as immédiatement repéré ce qui était vrai et ce qui était inventé dans ce que je raconte dans ces 2 première parties… Hubert Etienne : Disons que j’apprécie les libertés que tu prends avec le réel !
F.B. : Qu’est-ce qui t’a amené à te passionner pour l’IA et en faire ta carrière ? H.E. : Contrairement à la plupart de mes collègues, je n’ai jamais été un geek et mon intérêt pour l’IA est survenu de manière accidentelle, comme le résultat d’une double insatisfaction. Formé comme philosophe et comme financier, j’étais déçu par mes professeurs à la Sorbonne qui, quoi que brillants, nous décrivaient le monde tel qu’il devrait être sans qu’ils ne fassent rien pour le changer ; je m’ennuyais aussi terriblement dans les bureaux des banques d’affaire et des fonds d’investissements. Toute cette matière grise mobilisée pour « pondre » des books de slides qui seront à peine diagonalisées ; tout cela n’avait aucun sens et l’IA générative est venue y mettra fin ! « Comment un jeune philosophe dans un monde en crise doit-il penser son action pour donner un sens à sa vie ? » me suis-je demandé. C’est alors que j’ai choisi d’embrasser la philosophie à pleine bouche, mais de le faire avec l’efficacité d’un banquier au service d’un objectif : participer, à ma petite échelle, au sauvetage d’une humanité en détresse. Mes premiers questionnements métaéthiques – avec des questions portant sur les rapports moraux que l’on doit entretenir avec les êtres non humains tels que les autres animaux, les objets ou les robots – m’ont peu à peu dirigé vers l’IA et mon obsession de me rendre utile m’a conduit à développer la philosophie computationnelle : une approche de la philosophie résolument activiste, ouverte sur toutes les autres disciplines et qui se donne les moyens d’agir sur le monde.
F.B. : Revenons à ce que je raconte: quelle est ton opinion sur les propos de Kurzweil et l’accélération de la technologie ? H.E. : Il me semble que l’erreur de Kurzweil consiste à voir dans ladite « loi de Moore » une sorte de loi physique, à l’instar de la loi de gravité universelle, alors qu’il ne s’agit que d’un phénomène observé et dont la réalité ne colle que partiellement à la théorie. En outre, la conservation de la loi de Moore implique des investissements croissants, donc un concours de volonté pour la soutenir. On comprend que cette loi n’engage que ceux qui y croient et il faut qu’elle engage pour que l’on y croit ; elle repose sur une prophétie autoréalisatrice. Dès lors, Kurzweil pourrait bien avoir raison, dans le sens où l’humanité serait destinée à courir après la loi de Moore, mais on sera tout aussi bien avisé de ne pas se laisser séduire par ces arguments controversés. La recherche actuelle en IA s’éloigne progressivement de la science pour donner dans le religieux et ceux qui s’arrêtent un instant pour questionner notre hystérie collective sont perçus comme des ennemis du « progrès ». Mais nul ne devrait rougir de ne pas verser dans le fanatisme technologique ; c’est même notre devoir d’hommes et de femmes raisonnés.
F.B. : Rejoins-tu ma vision sur l’urgence de repenser les dispositif de distribution du savoir, notamment en ce qui concerne les thématiques impliqués dans ce que j’appelle les « risques définitifs » aux rangs desquels l’IA me semble le plus potentiellement « proche » de se matérialiser ? H.E. : Absolument ! Ce que j’entends ici et là est affligeant car, de la bouche de cette nouvelle légion d’experts auto-proclamés en éthique de l’IA, il sort au mieux des banalités, au pire des âneries, souvent des choses qui paraîssent vraies mais que la recherche a récusé. L’accès à la connaissance n’a jamais été aussi ouvert et pourtant le monde semble s’en déconnecté. Tu parlais de la manipulation du peuple par les élites mais les manipulateurs ont changé car les élites traditionnelles sont tout aussi manœuvrées. Elles sont le jouet de ceux qui soufflent le froid et le chaud, jouant sur les craintes et le besoin de se rassurer, afin de servir des ambitions indignes. Le pire reste sans doute que les « decision makers » as we say pensent savoir alors qu’ils ne savent pas. On clame par exemple qu’il faut éduquer la jeunesse aux risques de la désinformation sur les réseaux sociaux alors que sont les seniors qui en propagent le plus, et de loin ! Sans verser dans le jeunisme, il faut donc accepter que l’âge ne soit pas forcément gage de sagesse et que, pour rester connecté aux évolutions du monde, des canaux d’éducation continue sont nécessaires. L’IA pose effectivement des risques civilisationnels mais reste un outil, une arme avec laquelle certains cherchent à nous détruire, d’autres à nous sauver, « et le malheur veut que qui veut faire l’ange fait la bête » conclurait Pascal.
F.B. : Je sais que tu as entendu parler du projet « World of the Machines ». Qu’en penses tu ? H.E. : Le projet est pour le moins ambitieux ! Il est aussi fort intelligemment pensé, socialement utile et, disons-le, un peu barré. C’est sans doute la raison pour laquelle il me plaît tant et que je le trouve proprement post-moderne, c’est-à-dire représentatif de ces initiatives que l’on voit émerger dans un monde de plus en plus complexe, brouillant les distinctions pour remonter au niveau meta et questionner le sens. Expérience sociale et artistique au croisement des technologies (NFTs, IA, IoT) et des disciplines, il même pédagogie éducative et levée de fonds dans un monde qui appelle au mélange des genres. Les synesthésies appartiennent aux poètes autant qu’aux sujets psychotiques. On peut donc s’attendre à ce que d’aucuns crient au génie, d’autres au monstrueux, et c’est encore par son aspect clivant que World of the Machines représente notre post-modernité autant qu’il nous invite à la définir. A l’aube d’une nouvelle année qui s’annonce aussi riche en surprises que la précédente, tous mes vœux de succès accompagnent ce magnifique OVNI.
|
(1) https://www.safe.ai/statement-on-ai-risk
(2) https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.
Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits