Blog  >  Détails article

Les algorithmes de l’IA dans la RH : Comment les mobiliser éthiquement ?

TOP algorithmes de l’IA dans la RH

I- L’essor de l’intelligence artificielle dans le traitement des ressources humaines

Par l’évolution rapide des technologies d’Intelligence Artificielle notamment en machine learning, de nouveaux usages et de nouvelles pratiques émanent au sein de la gestion des ressources humaines qui étaient jusqu’alors non exploitées de la sorte. Ces solutions HR Tech propulsées par l’IA, dont fait partie TOP (Le Manager Augmenté), sont en émergence sur un marché qui est en train de découvrir les capacités qu’apportent ces solutions mais aussi qui commence à se questionner sur les enjeux RGPD et éthiques. Le marché nord-américain étant déjà bien avancé il est temps pour les acteurs fournisseurs d’IA RH français et européens d’accélérer et aussi de se distinguer ; ceux qui pour la plupart sont co-traitants des données clients doivent être acteurs de cette transition et établir les outils permettant de gérer au mieux l’ensemble de ces enjeux (autant en termes de RGPD que de gestion éthique de ces traitements).

Il est également à noter que nous assistons à une croissance exponentielle, autant du marché de l’IA au sens large, que ceux de l’analytics RH et aussi plus largement du marché des SIRH. La donnée et son traitement sont donc au cœur des évolutions des métiers des ressources humaines. Ces bénéfices sont tout autant prometteurs que posant de nouveaux défis. Il est aussi nécessaire de souligner la nécessité d’un accès simplifié aux données qui doivent être orchestrées et de qualité afin de permettre les meilleurs traitements par l’IA. Seule une utilisation réfléchie, par le prisme de l’éthique, de la RGPD et de l’intérêt fonctionnel peut résulter d’une utilisation efficace de l’ensemble de ces technologies.

De nouveaux acteurs aux spécialités diverses sont en train d’apparaitre tel que Revolv qui accompagne les clients grands comptes dans la récupération et le traitement des données RH avant de les fournir aux services d’IA consommateurs.

Un maillage est d’ailleurs en train de se créer entre ces nouveaux acteurs et un nouvel écosystème se développe rapidement.

L’agilité de la startup se prête alors bien aux nouveaux besoins des grands comptes qui doivent se doter rapidement de ces outils et traitements disruptifs afin de conserver un avantage compétitif relatif aux traitements de leurs ressources humaines au sein d’un marché mondial en mouvement.

II- Les biais algorithmiques à l’origine de nouvelles formes de discriminations

Les algorithmes de l’IA permettent aux organisations publiques et privées d’atteindre des buts importants dans de nombreux secteurs mais peuvent aussi générer des discriminations à l’encontre de certaines personnes. Si les causes des discriminations algorithmiques sont nombreuses en raison de la grande diversité de biais que les chercheurs ont mis en lumière, les formes que ces pratiques discriminatoires peuvent revêtir, le sont également, ce qui rend leur identification difficile.

Dans l’apprentissage automatique, les biais, possibles sources de discriminations, peuvent surgir à différentes étapes du cycle de production de l’IA au sein duquel interagissent les données, l’algorithme et les utilisateurs. Parmi les plus connus, les biais historiques sont ceux qui sont structurellement présents dans les données dans la mesure où ils sont inhérents au monde socio-technique qui se caractérise par des rapports de force et des inégalités sociales. Certains biais peuvent également apparaître lors de la construction de l’algorithme, à l’instar des biais d’évaluation et des biais d’omission de variables. Mais les biais de l’IA ne sont pas imputables aux seuls constructeurs de l’algorithme et data scientists puisque l’utilisateur est tout aussi concerné (biais de présentation de la décision algorithmique, biais de comportement, etc.). En matière de recrutement, où les biais cognitifs sont nombreux, des algorithmes permettent aux recruteurs de mieux cibler les profils des candidats, mais malgré leurs bonnes performances, des tests statistiques ont révélé que ces algorithmes, peu au fait des politiques inclusives, avaient tendance à reproduire les préjugés des recruteurs humains.

S’agissant des formes que revêtent les discriminations algorithmiques, celles-ci se manifestent subrepticement si on les compare aux pratiques discriminatoires traditionnelles perpétrées par les humains. Les machines, dépourvues de conscience, ne sauraient être animées par des préjugés sexistes ou racistes. Elles ne discriminent, par conséquent, jamais intentionnellement. En revanche, les effets discriminatoires des décisions algorithmiques sont avérés dès lors que l’apprentissage du système se fonde sur les décisions humaines qui elles peuvent être biaisées. En droit, l’on privilégiera, aux fins de la qualification, la discrimination indirecte dans la mesure où la discrimination directe renvoie à une situation où une personne est délibérément traitée de manière moins favorable, en raison d’un motif prohibé comme son genre, son origine, son orientation sexuelle ou politique. La forme indirecte est plus adaptée pour caractériser les effets discriminatoires des systèmes d’IA car elle se définit comme une pratique apparemment neutre qui désavantage certaines personnes. Mais si l’éthique de l’IA se focalise sur les caractéristiques protégées, comme la nationalité, les algorithmes ont donné naissance à de nouvelles formes de discriminations que le droit ne prend pas en charge à l’heure actuelle. L’IA a ainsi créé des catégories inédites qui ne sont pas corrélées à des caractéristiques protégées mais qui conduisent, en pratique, à différencier certains groupes sociaux, ce qui rend ses décisions parfois difficiles à justifier.

Il est, par ailleurs, difficile de parler de discrimination lorsque le modèle n’utilise pas de variables interdites comme le genre. L’algorithme peut néanmoins avoir recours à des variables qui sont indirectement corrélées au genre. Une autre difficulté tient au fait qu’un algorithme peut rendre des décisions discriminatoires à l’échelle individuelle (dans un cas particulier) mais pas à un niveau agrégé, ce qui requiert d’avoir recours à des preuves statistiques, pour caractériser ou non la discrimination. Des exemples tirés de controverses médiatisées ou de recherches empiriques permettent d’illustrer le propos. Dans le domaine de la prédiction de récidive, l’algorithme Compas a été accusé, outre-Atlantique, de discriminer les personnes noires. Dans un registre plus léger, des accusations identiques ont été émises contre l’algorithme de rognage de Twitter qui tendait à privilégier

des personnes blanches sur les images. L’algorithme de crédit de Goldman Sachs a, pour sa part, essuyé des critiques en raison de sa tendance à accorder, via l’Apple card, un crédit moins avantageux aux femmes qu’aux hommes.

Au-delà des controverses qui mettent en lumière les variables interdites, comme le genre ou la nationalité, les chercheurs se sont rendus compte que les algorithmes ne se contentent pas d’émettre des décisions que les êtres humains qualifient de sexistes ou racistes : la palette de leurs pratiques discriminatoires s’étend à des catégories qui ne sont ni des variables interdites (critères ne devant pas être pris en compte par le modèle) ni des variables pouvant être prises en compte par le modèle (en l’absence d’interdictions juridiques). Toute la question est de savoir si ces différenciations tendent à renforcer les inégalités sociales.

III- Comment rendre l’intelligence artificielle plus équitable ?

Pour rendre l’IA plus équitable, l’éthique de l’IA (AI Ethics) s’est imposée ces dernières années. L’éthique de l’IA est une nouvelle discipline dont l’objet est d’étudier les enjeux éthiques de l’IA et qui réunit autour de cet objectif diverses communautés académiques (“Privacy preserving Machine Learning”, “Explainable Artificial Intelligence”, “Fair machine learning”). Ce champ transdisciplinaire propose, à cette fin, de développer des dispositifs normatifs et des outils techniques tels que des principes, des chartes éthiques, des checklists, des métriques ou encore des procédures algorithmiques. En matière d’équité et de non-discrimination, la sous-discipline du FairML s’attache à élaborer des instruments techniques (métriques et algorithmes) qui se veulent des outils plus concrets pour lutter contre les biais discriminatoires que les principes énumérés dans les recommandations des comités d’éthique. Ces dernières années, de nombreuses initiatives sont apparues pour encadrer la conception, le déploiement et la gouvernance de l’IA. La question de l’égalité est devenue incontournable, comme l’attestent les nombreux documents produits par les organisations publiques et privées visant à lutter contre les discriminations algorithmiques.

Il importe de distinguer l’éthique de l’IA, en tant que telle, des réglementations juridiques, déjà existantes ou à venir, visant à encadrer, de façon contraignante, le développement et le déploiement des systèmes d’IA. À cet égard, le projet d’AI Act apparaît comme un outil décisif en ce qu’il prévoit d’imposer des obligations aux fournisseurs et aux utilisateurs de ces systèmes afin de garantir le respect de la législation en matière de protection des droits fondamentaux tout au long du cycle de vie des systèmes d’IA. Si l’équité peut être prise en charge par l’éthique de l’IA, l’aspect juridique ne doit pas être occulté puisque les principes d’égalité et de non-discrimination, consacrés de longue date en France comme en Europe, ont vocation à s’appliquer, même s’ils doivent être adaptés aux spécificités inhérentes aux biais algorithmiques. Actuellement, les principaux outils juridiques permettant de réduire les risques de discriminations algorithmiques sont le droit anti-discrimination et la réglementation relative à la protection des données.

À l’instar du RGPD qui a profondément changé la façon dont les entreprises traitent les données, le futur AI Act de l’Union européenne promet de bouleverser certaines pratiques. Mais plutôt que d’attendre passivement la nouvelle réglementation dont l’objet est de s’assurer que les systèmes d’IA ne portent pas atteinte aux droits fondamentaux, certaines entreprises prennent les devants pour tenter de rendre leurs algorithmes « éthiques ». Plusieurs moyens s’offrent aux entreprises pour rendre, dans

la mesure du possible, leurs systèmes d’IA plus équitables. Prendre conscience de l’existence des biais tout au long du cycle de vie de l’algorithme est une première étape, en gardant à l’esprit que les êtres humains ne sont pas des êtres parfaitement rationnels, pas plus que les machines ne peuvent raisonner. Pour éviter les biais discriminatoires (car tous ne le sont pas) il faut être attentif aux phases durant lesquelles les données sont récoltées et nettoyées. Lors de la modélisation, les choix opérés par les data scientists sont également décisifs (création de catégories de variables). Une fois que l’algorithme a été construit, l’évaluation de sa seule performance ne suffit pas. Pour s’assurer que ses décisions ne violent pas l’équité, il est possible de mesurer statistiquement les biais. En raison de sa capacité à saisir des corrélations, l’IA est en mesure de discriminer des personnes en fonction de leurs caractéristiques, même si les variables interdites ne sont pas utilisées. Pour détecter méthodologiquement les potentiels biais liés au genre ou à l’origine ethnique, il suffit de les tester quantitativement en calculant, à l’échelle agrégée, la différence entre les probabilités de deux catégories. En comparant les décisions algorithmiques de façon agrégée, l’indicateur de parité démographique nous donne l’effet disparate, ce qui permet de se prononcer sur son équité. Une fois identifiés, les biais peuvent être corrigés en ayant recours à des métriques de débiaisement. Les chercheurs ont ainsi proposé différentes techniques et procédures permettant d’atténuer les biais via la repondération ou en imposant des contraintes d’équité (fixation de seuils). On peut également décider de ne plus utiliser l’algorithme en cause en choisissant d’en construire un autre, plus inclusif. La vigilance éthique est exigeante car le simple fait d’omettre les variables interdites, pendant la période d’apprentissage, ne suffit pas toujours à évacuer le risque de discrimination. Leur absence dans le modèle ne garantit pas que les personnes appartenant à des groupes protégés, comme les minorités ethniques, ne feront pas l’objet d’un traitement différentiel. Dans la mesure où l’apprentissage automatique se fonde sur des corrélations statistiques, le système pourra aisément reconstruire la catégorie protégée à partir des variables corrélées.

IV- Etude de cas T.O.P. la solution de prédiction et de prévention du turnover par l’IA

Parmi les points les plus importants à souligner et à prévoir afin de mener sereinement une utilisation de l’Intelligence Artificielle en RH voici les mécanismes mis en valeur par l’équipe de TOP, développant un outil de prédiction du turnover (démission) et de renfort du manager :

  • Tout d’abord, il est nécessaire d’éviter l’utilisation des données interdites ou dites “trop sensibles” au sein des algorithmes ou ceux des prestataires (exemple : genre, âge et autres données sensibles selon la CNIL).
  • Respecter judicieusement le règlement RGPD établit et suivi par la CNIL
  • ”Débiaiser” le plus possible les logiques algorithmiques tout en notant au préalable que les données elles-mêmes sont le plus souvent pleines de biais qui émanent des activités humaines.
  • Superviser les traitements algorithmiques tous les mois afin d’éviter des surtraitements sur certaines catégories d’emploi ou sur certains profils, l’équipe de TOP a pour ce faire créé une vue de pilotage de son algorithme afin de permettre à tout utilisateur (manager, business partner RH ou RRH) de monitorer ce traitement et prendre les bonnes décisions.
  • Conserver une prise de décision par l’être humain (dans tous les cas) voire ajouter une équipe de contrôle interne (exemple : équipe Rh vs Managers) afin de mobiliser à bon escient la technologie comme un outil de conseil et de support à ses actions.
  • Suivre le cadre légal en cours d’établissement par l’union européenne : AI Act

Nous n’en sommes qu’aux prémices, alors que la sortie en fanfare de Chat GPT-3 semble bouleverser le grand public qui prend conscience des nouvelles capacités technologiques apportées par l’IA, une ère de transformation complète de nos modes de travail et de collaboration s’amorce et ne sera que positive par la mobilisation de ce type de précaution. Le respect de l’éthique, des avis prononcés par la CNIL, les normes RGPD et une utilisation sensée de l’intelligence artificielle apporteront les réponses nécessaires aux acteurs des ressources humaines face à leurs enjeux actuels grâce aux avancées technologiques.

Pour l’anecdote, et en guise de conclusion, nous terminerons cet article sur la réponse de ChatGPT à la question de savoir comment débiaiser un système d’IA en RH :

  1. Utiliser des algorithmes d’apprentissage machine pour reconnaître et corriger les biais. Ces algorithmes peuvent analyser le comportement des employés et leurs caractéristiques pour identifier les biais qui se sont infiltrés dans les processus.
  2. Utiliser des outils analytiques pour identifier les biais et leur source.
  3. Réviser vos politiques de recrutement et de formation pour vous assurer qu’ils offrent des opportunités équitables à tous les candidats et employés.
  4. S’assurer que les systèmes d’évaluation des performances soient objectifs et ne soient pas biaisés par des facteurs non pertinents.
  5. Mettre en place des processus d’audit afin de s’assurer que les systèmes et les politiques RH sont exempts de biais.
  6. Intégrer des pratiques de diversité et d’inclusion dans tous les aspects de la politique RH

Autres actualités