De la santé à la finance, l’intelligence artificielle (IA) transforme les industries en permettant une prise de décision plus intelligente et une efficacité opérationnelle. Toutefois, l’efficacité des systèmes d’IA dépend de la qualité des données sur lesquelles ils s’appuient.
Une contribution de Levent Ergin, Chief Strategist for Climate, Sustainability & Artificial Intelligence chez Informatica
Des données inexactes, incomplètes, biaisées ou obsolètes peuvent en effet gravement compromettre les résultats de l’IA, entraînant des risques juridiques et éthiques importants. Ces risques vont du non-respect des réglementations et des questions de responsabilité à la discrimination et à baisse de la confiance du public. Relever ces défis n’est pas seulement une nécessité technique, mais un impératif moral pour garantir un déploiement responsable de l’IA.
Risques juridiques : conformité, responsabilité et intégrité des données
L’une des préoccupations les plus pressantes concernant les données erronées dans l’IA est la non-conformité réglementaire. Des réglementations telles que le Règlement général sur la protection des données (RGPD) en Europe, qui restreint la manière dont les données sont collectées et utilisées à des fins spécifiques, et l’AI Act fixent des exigences strictes en matière d’exactitude et d’équité des données dans les systèmes d’IA. La non-conformité peut entraîner de lourdes amendes, des litiges juridiques et des atteintes à la réputation. Par exemple, il y a quelques années, Amazon a dû faire face à d’importantes réactions lorsque son outil de recrutement par IA s’est avéré discriminatoire à l’égard des femmes, ce qui a mis en évidence les conséquences juridiques des données biaisées.
Les questions de responsabilité entraînent une difficulté supplémentaire : lorsque les systèmes d’IA tombent en panne à cause de données erronées, la détermination de la responsabilité devient une tâche complexe. Est-ce le fabricant, le développeur ou l’utilisateur final qui doit être tenu pour responsable ? Cette ambiguïté peut entraîner de longues batailles juridiques et des pertes financières pour toutes les parties concernées.
Des problèmes de propriété intellectuelle et de confidentialité des données se posent également lorsque des données non vérifiées ou provenant d’une source inappropriée sont utilisées. De telles pratiques peuvent conduire à des violations des droits d’auteur ou de la vie privée, exposant les organisations à des risques juridiques et portant atteinte à leur crédibilité.
Au-delà de la conformité : défis éthiques dans les pratiques de données d’IA
Au-delà des conséquences juridiques, les données erronées dans les systèmes d’IA présentent des risques éthiques importants, avec les biais et la discrimination comme problèmes les plus flagrants. Lorsque les systèmes d’IA sont formés à partir de données biaisées, ils perpétuent, voire amplifient, les inégalités sociétales existantes. Par exemple, il a été démontré que les systèmes de reconnaissance faciale présentaient des biais liés aux origines et au genre, ce qui entraîne des résultats injustes et des dilemmes éthiques.
Par ailleurs, la préservation de la confiance du public est une considération essentielle dans le développement et le déploiement des technologies d’IA. Si les échecs retentissants de l’IA, souvent liés à une mauvaise qualité des données, ont parfois ébranlé la confiance des utilisateurs, ces défis offrent également aux entreprises des possibilités d’amélioration et d’innovation alors qu’elles commencent à déployer et à bénéficier de l’IA, et même de l’IA agentique, en rationalisant leurs processus et en renforçant l’efficacité de la manière dont elles utilisent leurs données. La confiance est en effet un élément clé de l’acceptation de l’IA, et en donnant la priorité à la transparence, à la responsabilité et à des pratiques robustes en matière de données, la communauté de l’IA peut renforcer la confiance et favoriser une adoption plus large. L’instauration et le maintien de la confiance seront essentiels pour libérer tout le potentiel de l’IA pour la société.
Enfin, la responsabilité morale dans le développement de l’IA ne peut être négligée. Les développeurs et les organisations ont l’obligation éthique de garantir la qualité et la transparence des données. Les cadres et lignes directrices éthiques, tels que ceux recommandés par l’UNESCO, fournissent une orientation précieuse. Tout comme l’industrie alimentaire s’appuie sur une gestion rigoureuse des données pour prendre des décisions durables et éthiques, l’IA doit également s’appuyer sur des données de qualité pour éviter les impacts sociétaux négatifs.
Les risques associés à des données insatisfaisantes dans les systèmes d’IA sont à la fois juridiques et éthiques, allant des sanctions réglementaires aux dommages sociétaux. Les entreprises doivent donner la priorité à la qualité des données, à la transparence et à la responsabilité afin d’atténuer ces risques et de mettre en place des systèmes d’IA dignes de confiance. A mesure que l’IA continue d’évoluer, il sera essentiel d’aborder ces questions pour s’assurer que ses avantages se concrétisent sans compromettre les normes éthiques ou la conformité juridique. L’adaptation proactive aux nouvelles réglementations – comme le règlement Omnibus de l’Union européenne – et la promotion de la collaboration entre les acteurs seront essentielles pour créer des systèmes d’IA fiables et éthiques auxquels la société pourra faire confiance.
À lire également : Réinventer le travail à l’ère des agents IA : une transformation en marche
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits