L’intelligence artificielle (IA) va changer le monde. Cependant, il subsiste encore de nombreux mythes autour de cette technologie. Il est essentiel de comprendre ce qui relève des faits, de la fiction et du discours marketing si l’on veut en tirer parti.
Article de Bernard Marr pour Forbes US – traduit par Flora Lucas
L’une des affirmations de plus en plus fréquentes est que l’intelligence des machines dépassera, à un moment donné (peut-être même bientôt) l’intelligence humaine. Ce phénomène, connu sous le nom de « singularité technologique » (ou simplement Singularité), est important pour de nombreuses raisons, la principale étant que l’avènement de l’IA marquera le premier moment de l’histoire de l’humanité où l’être humain partagera la planète avec des entités plus intelligentes que lui !
Cependant, cette Singularité est-elle vraiment susceptible de se produire ? Ou s’agit-il simplement d’un concept créé par des technologues et des futurologues pour vous vendre une vision de l’avenir qui leur permet de gagner beaucoup d’argent ? Forbes vous propose d’analyser tout cela de plus près.
Qu’est-ce que la Singularité et quand surviendra-t-elle ?
Le concept de « singularité » a été popularisé par l’auteur de science-fiction Vernor Vinge dans les années 1990. Il découle de l’idée qu’une fois que les machines seront capables d’apprendre par elles-mêmes, elles surpasseront inévitablement, à un moment donné, les humains dans tous les domaines où l’intelligence peut être mesurée.
Ce que l’on appelle « intelligence » comporte de nombreuses facettes. Deux d’entre elles sont la mémoire et la capacité de calcul, et les machines dépassent l’être humain depuis longtemps dans ces deux domaines. Aujourd’hui, avec l’émergence de nouvelles formes d’IA, elles deviennent créatives, communicatives, capables de compétences linguistiques avancées, voire de raisonnement, de résolution de problèmes et d’intelligence émotionnelle.
Les partisans de la théorie de la Singularité soulignent que l’intelligence des machines a le potentiel de s’accélérer de manière exponentielle. À mesure que l’IA deviendra plus intelligente, elle sera en mesure de concevoir elle-même une IA encore plus intelligente, sans aucune intervention humaine. Les partisans de cette théorie soulignent également que cela pourrait avoir des conséquences extrêmement imprévisibles. Peut-on faire confiance à l’IA pour qu’elle ait toujours les intérêts de la société à cœur ? Développera-t-elle un sentiment de supériorité ou d’auto-préservation qui la rendra dangereuse pour l’être humain ? De nombreux experts pensent qu’il s’agit là d’un réel danger !
Pour d’autres experts, plus optimistes, l’IA pourrait ouvrir une ère de progrès technologiques sans précédent, où des ordinateurs super intelligents trouveraient des solutions à tous les problèmes auxquels le monde est confronté, de la crise environnementale à la guérison du cancer. Certains pensent qu’elle pourrait rendre l’être humain immortel.
La Singularité n’arrivera peut-être pas demain, mais elle n’est peut-être pas si loin que cela. Le célèbre futurologue Ray Kurzweil prédit que ce phénomène pourrait arriver entre 2029 et 2045, en se basant sur le rythme actuel des progrès réalisés par la recherche sur l’IA et en tenant compte de concepts tels que les lois de Moore.
D’autres, comme Rodney Brooks, fondateur d’iRobot et ancien directeur de l’informatique et de l’IA au MIT, pensent que c’est peu probable. Selon eux, la puissance informatique nécessaire à la réalisation d’un internet surhumain ne sera pas disponible avant des siècles.
D’autres encore, comme le psychologue Steve Pinker, doutent que cela se produise un jour, affirmant que le fait que l’on puisse une telle chose ne prouve en rien qu’elle soit possible ou qu’elle le devienne un jour !
La dernière ligne droite ?
Compte tenu des récents progrès réalisés dans le domaine de l’IA, notamment l’émergence d’outils d’IA générative tels que ChatGPT et Dall-E 2, de nombreuses personnes pourraient penser que la Singularité est toute proche. Cependant, même si c’est le cas, il reste encore des obstacles très difficiles à surmonter avant qu’elle ne devienne une réalité.
Il est vrai que les systèmes actuels ont des capacités qui, il y a quelques décennies à peine, n’auraient existé que dans la science-fiction. Par exemple, les systèmes actuels peuvent tenir une conversation, écrire de la poésie, surpasser les humains à des jeux complexes comme le jeu de Go et décrire avec précision ce qu’ils sont capables de « voir » grâce à la vision par ordinateur.
Cependant, l’IA d’aujourd’hui est encore « restreinte », c’est-à-dire qu’elle est généralement conçue pour une tâche ou un ensemble de tâches particulières. Une étape importante sur la voie de l’intelligence surhumaine sera le développement de l’intelligence artificielle générale (IAG), qui est capable de prendre ce qu’elle apprend sur une tâche et de l’appliquer pour apprendre à effectuer de nombreuses tâches différentes, à l’instar de l’être humain.
Il reste également des défis techniques à relever. Des ressources informatiques bien supérieures à celles disponibles aujourd’hui seront nécessaires pour former des algorithmes d’apprentissage automatique capables de « penser » d’une manière aussi large que les êtres humains. Par ailleurs, les humains sont beaucoup plus efficaces lorsqu’il s’agit de traiter des données. Les machines ont besoin d’énormes volumes d’informations pour apprendre même des tâches relativement simples, alors que l’être humain peut assimiler les bases de nombreuses tâches simplement en les regardant s’exécuter une ou deux fois, grâce à sa capacité à penser de manière « générale » et à appliquer une méthode de réflexion que l’appelle le « bon sens ». Celui-ci provient de la connaissance implicite que l’être humain possède du monde et de son fonctionnement.
Bien sûr, il est probablement stupide de penser que ces derniers obstacles sont insurmontables, en particulier compte tenu de ce qui a été réalisé jusqu’à présent. Néanmoins, il est loin d’être certain qu’ils seront bientôt franchis !
Alors, faut-il se préparer à la Singularité ?
Bien que les délais soient incertains, il semble prudent de se préparer, étant donné les conséquences potentiellement sismiques.
L’un des garde-fous les plus évidents à mettre en place consiste à prendre des mesures pour s’assurer que l’IA agira toujours en accord avec les valeurs humaines. Cela implique de s’assurer qu’elle comprend des concepts tels que le respect du caractère sacré de la vie, la liberté, la tolérance et la diversité. Il est essentiel de limiter la capacité de l’IA à causer des dommages en raison de préjugés, de décisions contraires à l’éthique ou d’un profit effréné de la part des entreprises ou des gouvernements qui la déploient.
Dans le même temps, des mesures devraient être mises en place pour atténuer les dommages sociétaux qui pourraient être causés par des facteurs tels que les pertes d’emplois dues à l’IA. Il pourrait s’agir d’encourager les entreprises qui remplacent le personnel humain par des machines à investir dans la requalification et le reclassement du personnel, et d’explorer des politiques économiques telles que le revenu de base universel.
En restant attentif aux risques et en veillant à ce que la sécurité, la transparence et la responsabilité soient au cœur des stratégies de mise en œuvre de l’IA, l’être humain a les meilleures chances de garantir que l’IA évolue d’une manière qui profitera à l’humanité plutôt qu’elle ne lui nuira.
À lire également : L’intégration stratégique de l’IA chez Mastercard
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.
Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits