Rechercher

Theodoros Evgeniou (INSEAD) : « L’IA générative présente un risque d’influence de l’opinion publique qui peut menacer l’intégrité des processus démocratiques »

Theodoros Evgeniou, professeur de Décision en sciences et de Management de la technologie à l’INSEAD
Theodoros Evgeniou, professeur de Décision en sciences et de Management de la technologie à l’INSEAD

2024 est une année électorale record : près de la moitié de la population mondiale en âge de voter sera appelée aux urnes – soit plus de 4 milliards de personnes – dans 68 pays. Dans ce contexte, l’intelligence artificielle (IA) générative inquiète les États-Unis, l’Europe ou encore l’Asie car son rôle croissant dans la désinformation pourrait très bien perturber les périodes électorales à venir. Theodoros Evgeniou, professeur de décision en sciences et de management de la technologie à l’INSEAD, nous délivre une analyse de ces enjeux. 

 

Quelle est votre vision de l’IA ? Les opportunités sont-elles plus importantes que les risques ?

Theodoros Evgeniou : Personne ne sait vraiment si l’IA comporte plus d’opportunités ou de risques mais il est clair qu’elle accélère grandement la transformation de nos pratiques numériques et génère beaucoup de valeur. Une récente étude de BCG confirme que sur certaines tâches, l’IA générative peut constituer un fort levier de croissance à l’échelle de l’entreprise. Mais elle peut aussi dans certains cas entraîner une baisse de la performance et donc une destruction de valeur pour l’entreprise.

Pour les plateformes téléphoniques ou encore les services client par exemple, l’IA peut effectivement aider à automatiser des tâches pour booster la productivité. Et dans le même temps, la créativité collective peut diminuer si tout le monde utilise le même modèle de langage. Ce qu’il faut retenir, c’est que l’IA va effectivement bousculer certaines compétences mais cela va aussi en créer de nouvelles.

 

La promesse de ces IA reste aussi, au-delà de garantir la création de nouveaux jobs, de pouvoir assurer une juste redistribution de la création de valeur…

T. E. : Oui et je pense que les organisations doivent maximiser à la fois la création de valeur et sa redistribution. Il faut avoir cette distinction à l’esprit mais la montée en compétences reste toujours plus importante que le simple fait de redistribuer de l’argent. Le but n’est pas de rendre les collaborateurs paresseux mais bien de les aider à devenir meilleurs dans ce qu’ils font.

 

Que pensez-vous des discours alarmistes présentant l’IA comme un fléau pour l’humanité ?

T. E. : Je reste très pragmatique à l’égard de cette vague autour de l’IA générative et des discours autant optimistes que pessimistes. Le patron d’OpenAI Sam Altman a d’ailleurs récemment affirmé être prêt à investir plusieurs milliards de dollars – s’il le faut -, pour créer une intelligence générale artificielle « AGI » réellement puissante et bénéfique pour l’humanité. Selon moi, il y a trop de hype et même presque de mysticisme autour de cette annonce. Il ne faut pas non plus à mon sens foncer tête baissée car les bénéfices sont aussi importants que les risques. Mais ces emballements autour de l’IA sont assez normaux étant donné l’excitation générale de ces dernières années.

 

En parlant de risques, les craintes sont aujourd’hui focalisées sur le potentiel bouleversement des élections européennes puis américaines…

T. E. : La technologie a déjà été utilisée pour impacter les électeurs et les élections, même avant l’arrivée de l’IA générative. Il est vrai, cependant, que cette nouvelle IA représente un risque nouveau pour l’intégrité de nos processus démocratiques. Qu’il s’agisse de vidéos deepfake ou, peut-être plus important, la diffusion d’informations potentiellement erronées et ciblées, il n’a jamais été aussi simple de dissuader les gens de voter, fabriquer un événement mettant en vedette une représentation d’un candidat qui est difficile à démystifier, ou répandre des fake news.

C’est pour cela que nous avons coorganisé avec Tremau le « Trust & Safety Hackathon », à Paris en 2023, qui permet justement de sensibiliser le grand public à ces enjeux et de développer des solutions pour soutenir l’intégrité des élections, la confiance et la sécurité en ligne. En effet, il est important de faire la différence entre la mésinformation et la désinformation ; cette dernière étant intentionnelle et souvent menée par des acteurs malveillants. En cette période pré-électorale, nous devons nous assurer de disposer d’outils de factchecking robustes – par exemple sur les informations pratiques pendant les jours de l’élection -, mais aussi de garantir l’accès et la promotion de sources d’information fiables. Et une partie de ce travail sera d’ailleurs réalisée grâce à des outils d’IA.

De nombreuses plateformes mettent déjà en place des équipes chargées de l’intégrité des élections, mais les mesures de réduction des coûts, telles que celle de la taille des équipes chargées de la confiance et de la sécurité, augmentent les risques de problèmes d’intégrité des élections et de préjudices globaux en ligne.

La désinformation et les risques en ligne fragilisant les systèmes politiques ont été identifiés comme une préoccupation majeure de sécurité nationale par de nombreux pays, y compris les États-Unis. En Europe, le règlement sur les services numériques demande aux très grandes plateformes des prendre des mesures supplémentaires. La Chine aussi a mis en place certaines des réglementations les plus strictes sur les deepfakes et l’IA générative, soulignant les craintes de déstabilisation politique (en l’occurrence ici du Parti).

 

Comment définir la gouvernance sur l’intelligence artificielle en Asie ? Est-ce plus efficace que l’approche occidentale en la matière ?

T. E. : Certains pays asiatique sont une culture plus coercitive et communautaire sur la question, au détriment néanmoins de la transparence. Mais si cela permet plus de cohésion, et est souhaitable pour les citoyens, alors pourquoi pas ? Je me réfère souvent à l’ouvrage « The Problem of China » de Bertrand Russell qui met justement en garde la Chine contre l’adoption d’un modèle purement occidental de développement social et économique, qu’il qualifie même parfois de cupide et militariste. Ce dernier en 1920 avait déjà prédit la montée en puissance de la Chine à condition qu’elle mette en place un gouvernement ordonné ainsi qu’un modèle industriel sous contrôle.

Pour tenir compte de ces différences de culture, il faut trouver un équilibre et surtout favoriser le dialogue international sur le sujet car les valeurs européennes ne sont pas forcément partagées à travers le monde. La dernière chose dont nous aurions besoin est d’imposer sans concession nos standards car cela ne va que générer de la radicalisation et de la polarisation des relations entre États.

 

À ce sujet, estimez-vous que la tentative de bannissement de TikTok est pertinente ?

T. E. : Je pense qu’il est très simple de comprendre à quel point cette volonté est exprimée pour des raisons géopolitiques – en particulier la rivalité économique et commerciale entre les États-Unis et la Chine. Évidemment, il est important d’assurer la sécurité des données utilisateurs mais il semblerait que TikTok soit bel et bien conforme aux règles en vigueur. Le respect des réglementations locales est bien-sûr nécessaire. Cet épisode ne concerne pas que TikTok et touche la question épineuse de la souveraineté des données. C’est encore assez compliqué et personne n’a encore la bonne réponse à apporter.

On dit souvent que les États-Unis régulent après l’irruption d’une dérive alors que l’Europe essaye de fixer le problème en amont. Il est intéressant de noter que même l’Europe a élaboré cette année une nouvelle réglementation sur la sécurité en ligne, la DSA, des décennies après le début de l’Internet commercial. Il n’y a pas de timing parfait et la régulation doit être constamment adaptée au contexte. Nous avons donc un besoin urgent de progrès réglementaires pour non seulement garantir la sécurité et la protection de la vie privée, mais aussi permettre aux entreprises internationales (comme TikTok) d’opérer dans toutes les zones géographiques et en conformité avec les lois locales. Ainsi, il faut encadrer mais également soutenir la concurrence et éviter de freiner l’innovation.

 

Le Parlement européen vient tout juste d’adopter un règlement pour encadrer l’IA (AI Act). Pensez-vous que ce texte va inspirer le reste du monde ?

T. E. : Cet effort visant à se doter d’une structure de gouvernance à part entière m’inspire beaucoup. L’AI Act est très pertinent car il prévoit des processus pour réexaminer et améliorer constamment les réglementations appliquées. Il n’existe pas de réglementation « parfaite », il s’agit d’un processus d’apprentissage, d’où l’importance de mettre l’accent sur l’amélioration continue au moyen d’une structure de gouvernance réelle et solide.

En tant que membre spécialisé sur l’IA à l’OCDE, et étant impliqué dans les discussions sur les stratégies nationales en matière d’IA, j’ai discuté avec des comités stratégiques sur l’IA dans de nombreux pays. Je suis par exemple conseiller d’un comité en Grèce sur l’élaboration de leur stratégie nationale en matière d’IA. Il est important d’envisager une approche plus holistique du développement des compétences, comme nous le faisons à l’INSEAD par exemple, dans les programmes de formation des cadres sur l’IA. Il en va de même pour la vision des écosystèmes : la sensibilisation – à la fois des citoyens et des entreprises – est cruciale, car la plupart du temps les gens ne sont pas conscients de ce qui est possible et des ressources nationales qui peuvent être mises à leur disposition.

 

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC