Une contribution de Bernard Marr pour Forbes US – traduit par Lisa Deleforterie
Depuis que l’IA générative est accessible au grand public, la propagation de faux contenus et de désinformation sur les réseaux sociaux a connu une hausse exponentielle. Aujourd’hui, toute personne disposant d’un ordinateur et d’un peu de temps pour suivre des tutoriels peut facilement faire croire qu’une autre personne a dit ou fait pratiquement n’importe quoi.
Bien que certains pays aient adopté des lois pour tenter de limiter ce phénomène, leur efficacité reste entravée par la possibilité de publier des contenus anonymement. Que faire lorsque même des candidats à la présidentielle américaine diffusent des contenus falsifiés par l’IA ?
Dans une large mesure, il incombe aux entreprises de médias sociaux de surveiller les contenus publiés sur leurs propres plateformes. Ces dernières années, la plupart d’entre elles ont instauré des politiques pour réduire les risques liés aux fausses informations générées par l’IA. Mais dans quelle mesure ces politiques sont-elles appliquées, et sont-elles suffisantes ? Y a-t-il un risque que ces mesures nuisent à la société en restreignant des droits fondamentaux tels que la liberté d’expression ?
Pourquoi les faux contenus générés par l’IA posent-ils un problème majeur ?
L’utilisation de l’IA pour créer de fausses informations a considérablement augmenté, mettant en péril la confiance dans les processus démocratiques, tels que les élections. Les deepfakes générés par l’IA peuvent sembler incroyablement réalistes, et les contenus vidéo et audio sont largement employés pour nuire à des réputations et influencer l’opinion publique. En raison de la portée massive des réseaux sociaux, ces faux contenus peuvent devenir viraux très rapidement, touchant ainsi un large public.
Par exemple, cette année, des milliers d’électeurs démocrates enregistrés dans le New Hampshire, aux États-Unis, ont reçu des appels leur suggérant de ne pas voter. Une voix, prétendument celle du président Joe Biden, les informait que la prochaine élection primaire de l’État serait une victoire facile, et qu’ils devraient plutôt réserver leur vote pour des élections futures plus disputées. Au Bangladesh, des vidéos truquées montrant deux femmes politiques de l’opposition en maillots de bain ont suscité la controverse.
Ce n’est que la partie émergée de l’iceberg. Les chercheurs estiment que plus d’un demi-million de vidéos truquées circulaient sur les réseaux sociaux en 2023. Et avec l’élargissement de l’accès à la technologie, c’est un problème qui ne fera qu’empirer.
Que font les réseaux sociaux pour y remédier ?
La majorité des grandes entreprises de médias sociaux assurent avoir mis en place des mesures pour se protéger contre la prolifération des faux contenus et de la désinformation. Meta, propriétaire de Facebook et Instagram, utilise une combinaison de solutions technologiques et humaines. Des algorithmes analysent chaque contenu publié, et ceux identifiés comme générés par l’IA sont automatiquement étiquetés « AI Info » pour avertir que le contenu pourrait être trompeur. L’entreprise fait également appel à des employés et à des services de vérification des faits externes pour examiner et signaler manuellement les contenus suspects. En outre, Meta favorise les sources réputées et fiables lorsqu’elle recommande des contenus dans les fils d’actualité des utilisateurs, en supposant que les organisations de presse établies sont moins susceptibles de diffuser de fausses informations afin de protéger leur réputation.
De son côté, X (anciennement Twitter) adopte une approche centrée sur les contributions des utilisateurs. Il utilise un système appelé « notes de la communauté », qui permet aux utilisateurs abonnés de signaler et d’annoter les contenus qu’ils considèrent comme trompeurs. Par ailleurs, X a parfois pris des mesures pour exclure de la plateforme des utilisateurs reconnus coupables de déformer les faits concernant des politiciens. Sa politique sur les médias synthétiques et manipulés stipule que les utilisateurs ne doivent pas partager de contenus synthétiques (générés par l’IA) susceptibles de tromper ou de créer de la confusion.
YouTube, appartenant à Google, affirme supprimer activement les contenus trompeurs ou mensongers susceptibles de causer du tort. Pour les contenus jugés ambigus, qui ne violent pas directement les règles mais comportent un certain risque, la plateforme prend des mesures pour diminuer leur visibilité dans les recommandations de vidéos aux utilisateurs. Comme chez Meta, ce contrôle est effectué par une combinaison de réviseurs humains et d’algorithmes d’apprentissage automatique.
TikTok, détenu par ByteDance, utilise une technologie appelée « Content Credentials » pour détecter les contenus générés par l’IA, qu’ils soient sous forme de texte, de vidéo ou d’audio, et ajoute automatiquement des avertissements lorsque ces contenus apparaissent dans les fils d’actualité des utilisateurs. Les utilisateurs doivent également auto-certifier tout contenu qu’ils publient et qui inclut des vidéos, images ou audios d’apparence réaliste créés par l’IA, en précisant que ces contenus ne sont pas destinés à tromper ou à nuire.
Ces mesures sont-elles efficaces et quelles autres initiatives pourrait-on mettre en place ?
Malgré ces initiatives, les contenus générés par l’IA et délibérément trompeurs continuent de circuler largement sur toutes les grandes plateformes, montrant ainsi qu’il reste encore beaucoup à faire. Bien que les mesures technologiques et réglementaires adoptées par les réseaux sociaux et les gouvernements soient importantes, elles ne suffiront probablement pas à résoudre le problème à elles seules.
L’éducation jouera un rôle essentiel pour que nous puissions continuer à faire confiance à ce que nous voyons. Il est important d’apprendre à développer une pensée critique pour pouvoir identifier si un contenu est réel ou s’il cherche à nous tromper.
La lutte contre les faux contenus et la désinformation est un combat permanent qui nécessitera la coopération des créateurs de contenu, des plateformes, des législateurs, des éducateurs, ainsi que de nous, en tant qu’utilisateurs et consommateurs d’informations en ligne. Il est préoccupant de constater que des outils d’IA encore plus avancés, capables de falsifications et de tromperies encore plus crédibles, sont probablement en cours de développement. Cela signifie qu’élaborer des méthodes efficaces pour contrer ces risques sera l’un des défis les plus pressants auxquels la société devra faire face dans les années à venir.
À lire également : L’IA signe-t-elle la fin du knowledge management ?
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.
Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits