L’avenir de l’IA repose sur trois niveaux de gouvernance essentiels à la mise en place d’une IA éthique et efficace.
Dans la Grèce antique, les dramaturges savaient raconter des histoires, mais avaient parfois quelques difficultés à résoudre les conflits qu’ils avaient eux-mêmes imaginés. Ils ont donc inventé le « deus ex machina » (littéralement, le dieu issu de la machine), un procédé par lequel un acteur jouant le rôle d’un dieu arrivait sur scène grâce à un dispositif mécanique pour résoudre miraculeusement une situation désespérée.
De nos jours, l’intelligence artificielle (IA) est en passe de devenir notre version du deus ex machina, avec la promesse de résoudre nos problèmes professionnels les plus urgents. Mais tout comme les dieux grecs, l’IA peut être inconstante et faillible.
L’IA a le potentiel d’améliorer considérablement notre manière de prendre des décisions. Pourtant, elle peut également faire des recommandations injustes, nuisibles et fondamentalement erronées.
Nos modèles peuvent parfois être entachés de nombreux préjugés, provenant de données de mauvaise qualité ou de corrélations erronées. Fort heureusement, en appliquant une gouvernance technologique, éthique et juridique au développement et à l’utilisation de l’IA, il est possible de réduire considérablement l’impact des biais dans nos modèles.
Les formes de biais
Les biais de l’IA se présentent principalement sous deux formes.
Le premier est le biais algorithmique, qui provient de données d’apprentissage pauvres ou non représentatives. Par exemple, si nous formons nos modèles à prendre des décisions pour un ensemble de personnes, mais que nos données d’apprentissage ne s’appliquent pas à cette population, nos résultats seront alors erronés.
Le second est le biais sociétal et provient des préjugés, hypothèses, normes et œillères que l’on s’impose.
Les outils de police prédictive (censés être capables de prédire, à l’aide d’un algorithme, les futurs crimes ou délits à partir des données issues des forces de police) sont un exemple utile de ces deux types de biais. Les algorithmes de maintien de l’ordre, basés sur la localisation, s’appuient sur des données relatives à des événements, des lieux et des taux de criminalité pour prédire où et quand se produiront des crimes. Les algorithmes démographiques utilisent quant à eux des données sur l’âge, le sexe, les antécédents de toxicomanie, l’état civil et le casier judiciaire des personnes pour prédire qui pourrait commettre un crime à l’avenir. Des dizaines de villes aux États-Unis utilisent notamment PredPol et COMPAS, les plus courants de ces outils.
Cependant, ces outils de police prédictive aboutissent parfois à des résultats à caractère raciste. Si ces outils sont initialement alimentés par des données biaisées à l’encontre des personnes de couleur, ils produiront des résultats qui font écho à ce biais. Si nous n’intégrons pas à l’IA certaines couches de gouvernance (technique, éthique et juridique) pour limiter ce type de biais, nous pourrions constater (et nous constatons déjà) des conséquences dévastatrices dans le monde réel.
- Gouvernance technique
La première couche de protection contre les biais de l’IA consiste en une gouvernance technique. En effet, les méthodes mathématiques employées pour concevoir nos algorithmes, ainsi que les tests et les boucles de rétroaction nécessaires, doivent garantir que les modèles d’apprentissage automatique sont aussi précis et fiables que possible.
Cela peut être le cas si seule la moitié des données d’apprentissage est utilisée pour former un modèle et l’autre moitié pour le tester. Ou bien quand sont testées les corrélations fallacieuses avant de lancer le modèle. Quelles que soient les méthodes, il est essentiel d’évaluer les données afin de déterminer si elles sont susceptibles de créer un biais algorithmique, et ce, avant même de faire fonctionner les modèles.
- Gouvernance éthique
La gouvernance éthique permet aux parties prenantes d’équilibrer les avantages et les inconvénients pour ceux qui utiliseront les algorithmes ou qui pourraient être affectés par eux.
Par exemple, il peut être plus sûr de construire un modèle qui génère des faux négatifs que des faux positifs. L’utilisation de l’IA pour dépister le cancer de la peau en est un exemple utile. En effet, l’IA peut examiner les grains de beauté sur la peau et prédire s’ils sont cancéreux ou non. Lors de la construction de modèles de détection du cancer, les parties prenantes doivent tenir compte de l’impact potentiel sur un patient qui pense ne pas avoir de cancer alors qu’il en a un, ou inversement, qui pense en avoir un alors qu’il n’en a pas.
La mise en place d’un comité dédié à l’évaluation de l’éthique d’un modèle (ou simplement la mobilisation de parties prenantes habilitées à poser des questions pertinentes) peut contribuer grandement à la réduction de ces risques.
- Gouvernance juridique
Le gouvernement américain prend peu à peu conscience de la nécessité de promulguer des lois visant à réduire ou à éliminer les biais. En 2021, des projets de loi ou des résolutions sur l’IA ont été présentés dans pas moins de dix-sept États et l’Alabama, le Colorado, l’Illinois et le Mississippi les ont adoptées.
Un projet de loi de l’Illinois fait la demande aux employeurs (qui s’appuient sur l’IA pour déterminer si des candidats sont suffisamment qualifiés pour obtenir un entretien en personne) de communiquer ces informations démographiques au ministère du Commerce. Ce dernier doit ensuite analyser les données afin de décider si elles « révèlent un parti pris racial dans l’utilisation de l’intelligence artificielle ». Ce type de législation est essentiel, car il motive les entreprises à s’impliquer pour réduire les préjugés algorithmiques et sociétaux.
L’avenir de l’IA
Comme la plupart des grandes avancées technologiques, l’IA peut être utilisée pour le meilleur comme le pire. Pour qu’elle reste du bon côté de l’histoire, des processus de gouvernance doivent être déployés et appliqués à son développement, sa mise en place et son utilisation.
Chez ServiceNow, la gouvernance de l’IA est traitée comme une extension de la gestion intégrée des risques dans tous les aspects du développement et des opérations technologiques. En accompagnant les entreprises pour les aider à opérationnaliser leur gouvernance dans tous ces domaines, l’IA peut être mise à l’échelle en toute sécurité, tout en continuant à avoir des répercussions positives.
L’auteur tient à mentionner que les publications suivantes ont influencé à la fois cet article et sa réflexion sur l’IA.
Julia Angwin et al, « Machine Bias » ProPublica (en ligne, 23 mai 2016)
Matt J Kusner and Joshua R Loftus, « The Long Road to Fairer Algorithms » (2020) 578 Nature 34
Dawson D and Schleiger E, Horton J, McLaughlin J, Robinson C∞, Quezada G, Scowcroft J, and Hajkowicz † (2019) Artificial Intelligence: Australia’s Ethics Framework. Data61 CSIRO:
Natalia Mesa, Neuroscience, University of Washington « Can the criminal justice system’s artificial intelligence ever be truly fair? » Massive Science (en ligne, 13 mai 2021)
Greg Brockman, Mira Murati, Peter Welinder, How will OpenAI mitigate harmful bias and other negative effects of models served by the API? (18 septembre 2020)
Ben Dupre, « 50 Ethics Ideas You Really Need to Know », (Quercus 2013)
Article traduit de Forbes US – Auteur(e) : John Asquith