Une contribution de Georges Anidjar, Directeur général Europe du Sud chez Informatica
L’intelligence artificielle (IA) et le machine learning (ML) transforment les industries et les processus de prise de décision à un rythme sans précédent. Des soins de santé à la finance en passant par le recrutement et la justice pénale, les systèmes d’IA sont exploités pour améliorer l’efficacité, stimuler l’innovation et renforcer la précision des décisions. Toutefois, ces systèmes ne sont pas à l’abri des préjugés. Sans pratiques inclusives en matière de données, l’IA risque de perpétuer les préjugés sociétaux existants, ce qui se traduit par des résultats inéquitables dans de nombreux secteurs.
Les pratiques de données inclusives ne sont donc pas seulement une nécessité technologique, mais un impératif éthique. Pour que l’IA soit juste et transparente, il faut collecter des données diverses et représentatives et mettre en place des cadres solides pour détecter et atténuer les préjugés. Quels sont les défis posés par les biais dans l’IA et les solutions disponibles pour bâtir des modèles d’IA équitables et responsables ?
Le défi des préjugés dans les systèmes d’IA
Les modèles d’IA sont des outils puissants, mais leur efficacité dépend entièrement de la qualité des données sur lesquelles ils sont formés. Des données biaisées conduisent inévitablement à des décisions biaisées. Les algorithmes, malgré leur sophistication, ne sont pas neutres : ils héritent des biais intégrés dans les données qu’ils traitent.
Un exemple frappant de partialité de l’IA a été révélé dans une étude réalisée en 2018 par le MIT Media Lab, qui a analysé les systèmes de reconnaissance faciale de grandes entreprises technologiques. L’étude a révélé que les taux d’erreur pour les femmes à la peau plus foncée étaient nettement plus élevés que pour les hommes à la peau plus claire, mettant en évidence les préjugés raciaux et sexistes ancrés dans ces modèles d’IA. Ce résultat est dû à des ensembles de données d’entraînement déséquilibrés, qui contiennent beaucoup plus de données provenant de personnes à la peau plus claire, ce qui entraîne des résultats faussés et discriminatoires. Il est donc essentiel de comprendre que les données historiques contiennent souvent des représentations obsolètes ou biaisées des structures sociétales. Les systèmes d’IA formés à partir de ces données reproduiront naturellement ces biais, ce qui risque de renforcer les inégalités.
Pour relever ce défi, il est impératif de mettre en place des stratégies de collecte de données inclusives. Les systèmes d’IA doivent être construits sur des ensembles de données qui reflètent fidèlement la diversité des populations qu’ils servent. Il existe des stratégies clés que les organisations peuvent adopter pour s’assurer qu’elles collectent et utilisent des données qui favorisent l’équité et réduisent les préjugés :
- Des données diversifiées et représentatives : en collectant des données auprès d’un large éventail de groupes démographiques, y compris des groupes historiquement sous-représentés, les organisations peuvent réduire le risque de renforcer les inégalités existantes.
- Transparence et audits : la transparence des sources de données, associée à des audits réguliers, permet d’identifier et de corriger les biais. Les organisations devraient évaluer en permanence leurs ensembles de données afin d’en vérifier la représentativité et l’inclusivité.
- Gestion intégrée des données : les systèmes de gestion des données fragmentés posent un autre problème. Lorsque les données sont disséminées dans différents systèmes, il est plus difficile de garantir leur exactitude, leur diversité et leur cohérence. Les solutions intégrées peuvent contribuer à rationaliser la gouvernance et le contrôle des données, en créant un cadre plus cohérent et plus évolutif pour la gestion de divers ensembles de données.
Solutions pour une IA responsable et équitable
Une fois les données collectées, l’étape suivante consiste à s’assurer que les algorithmes qui les traitent ne favorisent pas de préjugés. Plusieurs stratégies peuvent être employées pour détecter et atténuer les biais algorithmiques :
- Prétraitement : neutraliser les biais dans les données avant de les introduire dans les modèles d’IA est une approche proactive. Il s’agit de rééquilibrer les ensembles de données ou de modifier les points de données pour mieux représenter les divers groupes.
- Traitement des données : les algorithmes eux-mêmes peuvent être ajustés pendant la formation pour tenir compte de l’équité, en veillant à ce qu’ils ne privilégient pas trop un groupe par rapport à un autre.
- Post-traitement : une fois les résultats générés, des techniques de post-traitement peuvent être utilisées pour ajuster les résultats afin de garantir des résultats équitables pour les différents groupes démographiques.
L’outil COMPAS, utilisé dans le système de justice pénale américain pour prédire les taux de récidive, est un exemple illustrant les résultats biaisés de l’IA. Une enquête menée en 2016 par ProPublica a révélé que le COMPAS attribuait de manière disproportionnée des scores de risque plus élevés aux accusés noirs qu’aux accusés blancs, même lorsque les deux groupes avaient une probabilité de récidive similaire. Ce biais provenait de données d’entrée erronées – des dossiers criminels historiques qui reflétaient des préjugés raciaux systémiques au sein des forces de l’ordre. Par conséquent, le modèle d’IA a généré des résultats biaisés et discriminatoires qui ont injustement influencé les décisions de condamnation. Cette affaire souligne l’importance d’identifier et de corriger les biais dans les données d’entrée et les processus d’IA afin d’éviter des résultats préjudiciables.
Le fondement d’une IA responsable repose sur de solides pratiques de gestion des données. Les organisations doivent mettre en œuvre des cadres qui garantissent la transparence, la sécurité et la confidentialité des données tout en assurant la conformité avec des réglementations en constante évolution telles que l’IA Act. Les éléments clés qui garantissent une gestion efficace et responsable des données comprennent :
- Les solutions intégrées de gestion des données : ces solutions permettent aux entreprises de maintenir la qualité des données tout en adhérant aux normes réglementaires. Elles contribuent également à réduire la probabilité de résultats biaisés en garantissant que les données sont correctement gérées et validées tout au long de leur cycle de vie.
- Les outils de gouvernance des données : ces outils offrent une visibilité sur l’origine, le flux et les transformations des données, ce qui permet d’assurer la transparence et de renforcer la responsabilité. En sachant d’où viennent les données et comment elles sont utilisées, les organisations peuvent mieux identifier et atténuer les biais potentiels.
- L’automatisation au service de la cohérence : l’automatisation joue un rôle crucial dans le maintien de la qualité et de la cohérence des données à travers des ensembles de données vastes et complexes. Les flux de travail automatisés réduisent le risque d’erreur humaine et garantissent que les pratiques de gestion des données sont normalisées, aidant ainsi les organisations à créer des modèles d’IA fiables et équitables.
La création de systèmes d’IA qui favorisent la justice et l’équité commence par des pratiques de données inclusives. En luttant contre les préjugés dans la collecte des données et en utilisant des cadres de gestion des données robustes, les entreprises peuvent s’assurer que leurs modèles d’IA sont transparents, éthiques et dignes de confiance.
Les organisations qui donnent la priorité à la diversité dans leurs pratiques en matière de données et qui investissent dans le développement d’une IA responsable réduiront non seulement les risques, mais instaureront également la confiance. Dans le paysage de l’IA qui évolue rapidement, celles qui sont à l’avant-garde des pratiques d’IA inclusives et équitables seront les mieux placées pour stimuler l’innovation tout en bénéficiant à la société dans son ensemble.
À lire également : Entre hiver démographique et révolution IA, les marchés à l’épreuve de transitions majeures
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.
Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits