Utilisation des algorithmes dans le recrutement : entre innovation et discrimination

La révolution de l’intelligence artificielle est en marche. Les algorithmes sont capables de traiter un éventail très large de données et de variables pour prendre des décisions, avec une rapidité qui dépassent de loin les capacités humaines. Si cette innovation peut nous aider à avancer dans de nombreux domaines, elle risque aussi d’engendrer des dérives, comme la discrimination, notamment en matière de recrutement.

L'IA et le Recrutement : Promesses et Défis

De nombreuses études ont mis en évidence les risques que font peser les systèmes dits d’intelligence artificielle et de prise de décision automatisée sur les principes d’égalité et de non-discrimination en matière d’emploi, de prestation de biens ou de services dans les secteurs public et privé, de politiques de sécurité publique ou encore dans la lutte contre la fraude.

En matière de recrutement, les outils fondés sur l’IA ont la capacité de collecter de grandes quantités de données au sein d’une entreprise ou d’une institution afin de rechercher, d’identifier, d’évaluer, de classer et de sélectionner les candidats à un poste.

Les concepteurs affirmaient également pouvoir réduire les biais décisionnels des personnes travaillant aux ressources humaines qui pourraient, intentionnellement ou non, discriminer ou traiter injustement certaines des candidatures.

France Travail a recours depuis 2018 à l’intelligence artificielle pour “personnaliser le parcours” des demandeurs d’emploi, mieux cibler les offres notamment, accélérer les recrutements et faciliter la tâche de ses conseillers avec notamment un logiciel de tri des courriels permettant d’éviter les erreurs d’adressage.

Mais l’IA, qui se nourrit de données du passé et du présent pour faire des choix et des recommandations, peut aussi reproduire ou amplifier des discriminations, si elle est utilisée comme moyen de sélection.

Finalement, l’IA ne fait que présenter les résultats de calculs définis au préalable par des humains et à partir de mégadonnées qui ont été elles-mêmes collectées auprès d’humains, répétant ainsi les biais et les préjugés de ses créateurs.

Discrimination : Quels Risques ?

D’après Kate Crawford, chercheuse australienne, professeure à l’Université de New York et chercheuse à Microsoft, connue pour ses travaux sur les effets sociaux du numérique, et notamment du big data et de l’intelligence artificielle : « La plus grande menace des systèmes d’IA n’est pas qu’ils deviendront plus intelligents que les humains, mais plutôt qu’ils coderont en dur le sexisme, le racisme et d’autres formes de discrimination dans l’infrastructure numérique de notre société. »

Les biais algorithmiques existent bien. Comme le, rappelle Aurélie Jean, scientifique numéricienne et entrepreneuse française spécialisée dans les algorithmes et la modélisation numérique. : « Les biais algorithmiques sont des erreurs dans le dimensionnement, la construction de l’algorithme qui porte ce même algorithme à traiter, lors de son exécution, les individus et les scénarios de manière injuste et incorrecte, pouvant générer ce qu’on nomme de la discrimination technologique. Ces biais algorithmiques viennent souvent de nos propres biais cognitifs. »

Exemples Concrets de Discrimination Algorithmique

L’exemple le plus connu est certainement celui des premiers algorithmes de reconnaissance faciale qui ne reconnaissaient pas les visages à peaux noires. La raison ? Les concepteurs avaient entraîné l’algorithme sur des jeux de photos contenant des visages de personnes blanches uniquement.

Des algorithmes discriminent encore certains candidats qui peuvent ne pas correspondre au modèle historique de la description d’un poste. Sont parfois exclus les femmes notamment dans les domaines scientifiques ou les candidats qui ont des lacunes dans leur CV en raison d’une maladie, d’un handicap, de la prise en charge d’un membre de la famille, du chômage, etc.

Plusieurs grandes entreprises, dont Apple IBM et Microsoft, ont été mises en cause pour des manquements à l’éthique dans l’utilisation de l’IA, notamment en ce qui concerne la discrimination fondée sur le genre. 

Reuters a rapporté en 2018 qu’Amazon avait développé un programme pour repérer les meilleurs CV des candidats. Le programme désavantageait systématiquement le CV des femmes, car il reflétait l’écart déjà existant entre les sexes parmi le personnel recruté au cours des dix dernières années.

Une expérience menée par AlgorithmWatch en 2020 a montré que même en demandant à Facebook de diffuser des annonces «de manière neutre » (sans cibler un public spécifique), il a pu être observé qu’une annonce pour un poste de conduite des camions a été présentée à un public composé de 93 % d’hommes et seulement 7 % de femmes. À l’inverse, une annonce pour un poste dans l’éducation a été diffusée à un public composé de 96 % de femmes et 4 % d’hommes.

Les systèmes de reconnaissance des visages et d’analyse des émotions intégrant une IA peuvent également donner lieu à une discrimination raciale ou désavantager les candidats avec un handicap. Cette discrimination s’explique par les taux de performance plus faibles de ces appareils sur les teintes de peau plus foncées. En outre, les logiciels d’analyse des émotions qui sont formés à partir de sujets neurotypiques pourraient ne pas être en mesure de fonctionner correctement sur des sujets neurodivers. L’analyse des émotions par l’IA étant de plus en plus utilisée dans le secteur du recrutement, cette différenciation pose donc des problèmes d’accessibilité et d’inclusion.

Les Défis Éthiques dans l'Utilisation de l'IA

Le directeur général adjoint Paul Bazin de France Travail reconnaissait dans une interview, “Dans un monde où il y a un écart de salaire entre les femmes et les hommes sur le métier en question, l’IA va faire des recommandations qui, si l’on n’y prend pas garde, vont soit entériner les discriminations soit décourager la candidate en lui disant : vous avez le risque de ne pas pouvoir être recrutée sur ce type de poste“.

Alors que les décisions humaines erronées peuvent en principe faire l’objet d’un recours, il est ainsi très difficile avec les systèmes d’IA de mettre en œuvre l’obligation de rendre des comptes, du fait de l’absence d’information sur le déploiement de l’IA, de l’opacité des systèmes. Les inégalités existantes finissent par être codées et perpétuées dans des machines protégées par la propriété intellectuelle. Les biais deviennent plus difficiles à identifier et à contester.

La sous-représentation des groupes défavorisés dans les communautés professionnelles qui contribuent au développement de l’IA est un aspect important du problème de la discrimination algorithmique. Le manque de diversité et d’inclusion dans ces communautés indique que les femmes et les groupes sous-représentés ne participent pas à l’élaboration des technologies algorithmiques.  Ces dernières ne prennent donc pas suffisamment en compte les besoins de ces groupes, les désavantagent ou les excluent complètement.

Il est donc plus que nécessaire d’orienter davantage de femmes et de personnes issues de groupes minoritaires vers les disciplines STIM (science, technologie, ingénierie et mathématiques) pour lutter contre une IA discriminatoire et par des politiques de recrutement plus diversifiées dans les professions qui contribuent au développement des systèmes d’IA et à leur utilisation.

Stratégies d'Atténuation des Biais dans les Algorithmes

Pour remédier aux biais dans les algorithmes, les développeurs mettent également en place des techniques d’atténuation de ces biais. C’est le cas des développeurs du programme de création d’images « DALLE-2 », fondé sur l’IA, après avoir constaté que les images produites présentaient des défauts de représentation des minorités ( Par exemple, peu d’images et de représentations de femmes dans la catégorie PDG). La technique d’atténuation mise en œuvre a pour objectif d’augmenter la diversité des groupes de population représentés dans les images produites.

De son côté, France Travail au 1er janvier, s’est doté d’un comité d’éthique qui rentre dans le détail du fonctionnement des algorithmes, dont la mission est d’identifier les biais existants pour tenter de les réduire.

Il est primordial que la diversité soit aujourd’hui considérée comme une « mission essentielle » en matière d’innovation et il ne faut pas oublier que l’humain est doté d’une conscience, de plusieurs types d’intelligence, analytique, émotionnelle, intuitive et pratique que l’IA et les algorithmes n’auront jamais.

« Un algorithme reste un modèle, une représentation du monde. Considérer les résultats de manière stricte, sans recul et sans flexibilité est dangereux. »

L’IA bénéficiera largement à la société si nous parvenons à instaurer une gouvernance algorithmique d’excellence. Ceci passe notamment par la mise en œuvre de bonnes pratiques de développement, d’usage et de back testing “(lorsque l’algorithme est testé une fois en production et utilisé parfois par des millions d’individus). Aurélie Jean.

Sources : Étude sur l’impact des systèmes d’intelligence artificielle, leur potentiel de promotion de l’égalité, y compris l’égalité de genre, et les risques qu’ils peuvent entraîner en matière de non-discrimination- Conseil de l’Europe 

Aurélie Jean « les algorithmes font ils la loi ? »  Et « De l’autre côté de la machine ».

Partager
Retour en haut