L’Intelligence Artificielle (IA) ne quitte plus le feu des projecteurs depuis la mise sur le marché de l’Intelligence artificielle générative ChatGPT. Pourtant, elle n’est pas nouvelle. Depuis cinq à six ans, l’explosion du machine learning (apprentissage automatique) ouvre de nouvelles perspectives, en particulier en matière d’expérience candidats et recruteurs, mais de manière moins visible.
Une contribution de Charles Chantala, Senior Director chez Indeed
Les applications de l’IA dans l’univers du recrutement sont en constante expansion. Elles peuvent, dans ce domaine, nourrir pléthore de fonctionnalités (classement des offres d’emploi affichées, suggestion de CV en fonction d’une offre, extraction des compétences-clés des CV, détection des annonces frauduleuses…). Pour parvenir à ce niveau de polyvalence, les outils sollicités ont évolué progressivement, d’abord en devenant intelligents, puis auto-apprenants et, dorénavant, en étant capables de générer du contenu. Pour autant, l’IA appliquée aux RH ne sont pas exempts d’effets pervers, et nécessitent ainsi un cadre à la fois éthique et humain.
Gare aux biais qui peuvent engendrer des discriminations !
En premier lieu, la performance de l’IA ne doit pas nous faire oublier notre esprit critique pour nous assurer qu’aucun biais n’influence les résultats. Comme dans tous les domaines, la qualité de la data est au cœur de l’entraînement de l’IA et donc de son efficacité et de sa pertinence. Or, quand les données sont fournies par l’humain, elles peuvent être biaisées ou discriminatoires, même si c’est involontaire. L’outil vient alors amplifier les distorsions.
L’un des premiers exemples en la matière est celui d’Amazon et de son IA de sélection des candidats qui écartait les profils féminins. Plus récemment, diverses initiatives ont vu le jour afin de déterminer si les IA génératives d’images reproduisaient ou non des stéréotypes.
Une récente étude a illustré visuellement ce phénomène. En demandant aux IA génératives de créer des images par rapport à certains emplois et à la criminalité, il a été constaté que celles-ci accentuaient les stéréotypes liés à l’ethnie et au genre. Bien que les Américains de couleur blanche représentent 70% des travailleurs de la restauration rapide, les images générées par les IA montrent des travailleurs de couleur. Aussi, bien que les femmes représentent 39% des médecins, seulement 7% de femmes sont représentées sur les résultats visuels. L’étude a ainsi démontré que les emplois les mieux rémunérés étaient représentés principalement par des hommes de couleur de peau claire tandis que les emplois moins bien rémunérés étaient représentés majoritairement par des femmes de couleur de peau plus foncée. Les images générées pour les termes « prisonnier », « trafiquant de drogue » et « terroriste » ont également renforcé les stéréotypes.
Pour les plateformes de recrutement, l’enjeu est donc d’entraîner l’IA avec des données représentatives et en nombre suffisant. Une autre difficulté consiste à obtenir de la donnée de bout en bout du besoin à l’embauche. Elle a pu être surmontée grâce au développement des entretiens en ligne, conséquence de la crise sanitaire, qui a eu un impact positif sur les volumes de données exploitables sur l’intégralité du processus de recrutement.
Tendre vers une utilisation responsable de l’IA
Au-delà des risques de discrimination il faut être attentif au risque de déterminisme. Une IA de recrutement qui ne se baserait que sur les CVs ou le comportement passé des candidats les enfermerait dans un champ des possibles restreint. Un conseiller clientèle junior par exemple ne se verrait proposer que des postes commerciaux. Il est indispensable de comprendre également les préférences des candidats pour leur avenir afin qu’ils restent maîtres de leur destin, libres de se réorienter.
Au vu de ces différents dangers, il peut être pertinent de s’entourer d’un comité d’éthique dédié, composé d’expertises pluridisciplinaires (ingénieurs, sociologues, anthropologues…) pour garantir une utilisation responsable de l’IA dans le processus de recrutement.
Et pour cause : dans sa future réglementation sur l’IA, la Commission Européenne a identifié un risque élevé pour les systèmes d’IA relevant de l’emploi, de la gestion des travailleurs et de l’accès au travail indépendant (par exemple, un logiciel de tri des CV), qui seront soumis à des exigences de conformité à la hauteur des enjeux.
Dans le cadre de ces réflexions liées à l’éthique numérique, on ne peut que plébisciter les encadrements à venir, car une IA mal construite peut engendrer de graves risques au niveau individuel et de la cohésion de la société.
Un recruteur augmenté, mais un recrutement pas déshumanisé !
Les entreprises doivent donc se poser les bonnes questions face aux outils, à leur entraînement, à leur éthique… Elles doivent ériger des garde-fous et réfléchir à l’équilibre souhaité entre l’intervention humaine et celle de la machine. Les outils d’IA sont en ce sens des facilitateurs et des accélérateurs mais, pour autant, l’automatisation intégrale ne semble pas souhaitable.
L’IA doit donc être au service et non en remplacement de l’intelligence et de l’intuition humaines. Le recruteur doit rester maître du processus de recrutement et s’adapter. Les méthodes de recrutement d’hier ne seront pas celles de demain. À ce titre, le binôme CV et lettre de motivation tend à disparaître au profit d’un recrutement sur les compétences et les préférences, sur ce qui compte vraiment. Et c’est plutôt une bonne chose !
À lire également : Le nécessaire temps du recul face à la fulgurance de l’IA
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.
Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits