Blog  >  Détails article

Comment T.O.P. contribue à une Intelligence Artificielle éthique et s’inscrit dans la dynamique de l’AI Act ? 

TOP IA éthique

Le 21 avril 2021, la Commission européenne a dévoilé l’Artificial Intelligence Act, un projet de réglementation visant à établir un cadre réglementaire et juridique commun pour l’intelligence artificielle (IA) et ses utilisations au sein de l’Union européenne (UE).   

Les objectifs de cette initiative sont multiples : imposer un cadre réglementaire pour encadrer l’utilisation et le développement de l’IA, renforcer la gouvernance dans ce domaine ainsi qu’attirer les investissements grâce à un cadre juridique solide qui s’aligne avec les évolutions mondiales en la matière.  

Ce projet de réglementation s’applique aux fournisseurs et distributeurs d’IA opérant dans l’UE, aux utilisateurs d’IA au sein de l’UE ainsi qu’aux fournisseurs et utilisateurs de systèmes d’IA situés dans un pays tiers où la solution produite par ces systèmes est utilisée dans l’Union Européenne.  

Dans cet article, nous allons aborder les différentes règles définies pour l’élaboration des systèmes d’Intelligence Artificielle, le positionnement de l’Europe dans cette dynamique et comment des solutions SaaS comme T.O.P s’inscrivent dans la démarche éthique, en conformité avec l’AI Act ?  

Des règles définies dès la conception des systèmes d’intelligence artificielle   

Le projet de loi de l’intelligence artificielle oblige les entreprises à respecter certaines exigences dans l’élaboration de leurs systèmes d’IA :   

  • Surveillance humaine : Les entreprises doivent mettre en place une supervision de l’IA pour contrôler les actions des systèmes d’IA.  
  • Gestion des risques : L’anticipation, l’identification et l’élimination des risques est cruciales pour réduire les risques liés à l’utilisation de l’IA dans leurs systèmes.  
  • Données et gouvernance des données : Tester et valider rigoureusement l’ensemble de données utilisées en matière d’IA est essentiel pour une gouvernance optimale de celles-ci.  
  • Transparence et information des utilisateurs : Les entreprises doivent permettre une interprétation des résultats compréhensibles par tous et informer les utilisateurs de l’usage de leurs données avec transparence.  
  • Traçabilité : Les événements liés à l’IA doivent être enregistrer automatiquement pour assurer une traçabilité adéquate.  
  • Documentation : Il est important de fournir une documentation établie avant la mise sur le marché pour pouvoir évaluer la conformité de l’IA.  
  • Précision, robustesse et cybersécurité : Les entreprises doivent répondre et atteindre les objectifs de ceux-ci tout au long de leur cycle de vie.  

 Des cadres spécifiques seront attribués aux solutions mobilisant l’intelligence artificielle. L’AI Act définira donc une matrice de classification des risques de ces solutions :   

  • Systèmes considérés à risque inacceptable :  

Notation sociale : L’IA ne peut pas noter socialement une personne en raison des risques de préjugés, de discrimination et de violation de la vie privée.  

Identification biométrique : L’IA ne peut pas identifier instantanément une personne en utilisant des données biométriques. En effet, leur exploitation par ces systèmes peut compromettre la confidentialité et la liberté individuelle.  

Techniques subliminales : L’IA ne peut pas utiliser des techniques subliminales nuisibles pour la santé des personnes. Ces techniques cherchant à influencer les pensées, les émotions et les comportements de manière subconsciente, sans consentement des individus devraient être interdites pour protéger les individus et assurer leur bien-être.  

Exploitation de personnes vulnérables : Les personnes vulnérables, comme les personnes âgées, les personnes handicapées ou les enfants, nécessitent une protection spéciale en raison de leur fragilité. Il est moralement répréhensible d’utiliser l’IA pour exploiter leur vulnérabilité en les manipulant ou en les trompant.  

  • Systèmes considérés à haut risque :  

Ils concernent toutes les solutions qui représentent des dangers prévisibles pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie ou l’État de droit. Cela inclut des exemples tels l’influence politique, système de recommandations sur réseaux sociaux, IA Générative.   

Avant leur mise en application, ces systèmes doivent être soumis à une évaluation préalable par des agences nationales.  

  • Systèmes considérés à moyen risque ou limité :  

Il s’agit des systèmes qui interagissent avec les humains, sont utilisés pour détecter des émotions ou déterminer l’association avec des catégories sociales basées sur des données biométriques, ou générer, manipuler du contenu « deep fakes ».   

  Ces systèmes devront faire l’objet d’une obligation de transparence mais pourra lancer son exploitation sans audit préalable. Dans cette catégorie, nous retrouvons les chatbots, des agents conversationnels automatiques.  

  • Systèmes considérés à risque minimal :   

Comme les filtres anti-spam ou les jeux vidéo qui ne feront l’objet d’aucune obligation particulière et ne présentent pas de réels dangers.  

Comment l’Europe s’inscrit dans une dynamique de développement de l’utilisation de l’IA ?

L’AI Act, vient répondre à une dynamique mondiale sur l’Intelligence Artificielle : une croissance du marché et de nombreux défis à résoudre afin de bien exploiter son potentiel de manière éthique et bénéfique pour l’humanité.   

 Dans un sens plus large, cette réglementation et accompagnement à la croissance de l’IA est encore sous représentée aux États-Unis, puisqu’ils n’ont pas de cadre fédéral pour la réguler.   

 Le projet de loi « Algorithmic Accountability Act » a été introduit au Sénat américain et à la Chambre des représentants le 3 février 2021, mais même s’il est adopté, il ne pourra pas entrer en vigueur avant quelques années.  
Cependant, certains Etats comme l’Alabama, le Colorado, l’Illinois ou le Mississippi ont déjà adopté des lois en faveur de la régulation de l’Intelligence Artificielle.  

 Dans ce secteur, L’Europe se positionne comme un bon un exemple en matière d’accompagnement et structuration sur le sujet de réglementation grâce à la mise en place de plusieurs institutions et règlementations :   

ECAT : (European Centre for Algorithmic Transparency), est chargée de fournir une expertise technique à la Commission Européenne pour s’assurer que les grandes plateformes en ligne et les moteurs de recherche respectent les règles de gestion des risques, de réduction et de transparence liées à la législation sur les services numériques.   

RGPD (Règlement Général sur la Protection des Données) : est un texte réglementaire européen qui protège et encadre le traitement de données de manière égale dans l’Union européenne. Il s’applique à toutes les organisations, qu’elles soient publiques ou privées, et même aux organisations basées en dehors de l’UE si elles ciblent les résidents européens.  

CNIL (Commission nationale de l’informatique et des libertés) : est une autorité indépendante qui surveille et contrôle l’utilisation de l’informatique pour garantir la conformité à la loi française, notamment, la protection des données personnelles et des droits humains. Son rôle est de veiller à ce que les informations circulant sur les réseaux respectent les libertés individuelles et la liberté de pensée.  

LaborIA : Créé par le ministère du Travail et l’INRIA en novembre 2021, vise à comprendre l’intelligence artificielle et son impact sur le travail, l’emploi et les compétences. Son objectif est de faire évoluer le changement des pratiques des entreprises comme l’action publique.  

OCDE (L’Organisation de coopération et de développement économiques) : étudie l’économie et vise à encourager des politiques publiques pour la prospérité, l’égalité des chances et le bien-être de tous. Cette organisation s’intéresse également aux différentes évolutions de l’intelligence artificielle.  

Comment T.O.P. soutient une Intelligence Artificielle éthique et alignée avec l’AI Act ?

T.O.P. a pris dès sa genèse à bras le corps les sujets d’éthique et de respect d’utilisation de la donnée. Depuis le début de son développement, les experts de T.O.P ont veillé sur ces critères en alignement avec l’AI Act.  

Cette solution SaaS aide à la décision, T.O.P valorise ainsi la gestion des ressources humaines en conseillant les managers ou rh sur comment anticiper et éviter les démissions des collaborateurs. Le manager, utilisateur de la solution, possède donc le contrôle vis à vis des conseils prodigués par la solution tout en restant le seul décisionnaire.   

Pour éviter d’influencer les résultats par des biais sociaux stigmatisants ou injustes, T.O.P a mis en place des mécanismes de débiaisement des résultats algorithmiques. L’objectif recherché est de garantir l’équité et l’impartialité dans les prédictions fournies par T.O.P.  Afin d’assurer la transparence et la conformité de son système d’intelligence artificielle, T.O.P. est suivi par Hub France IA et le Lab RH, des organismes spécialisés dans l’éthique et la réglementation de l’intelligence artificielle.  

Le respect des normes de la CNIL est également une priorité pour cette solution qui s’inscrit dans les règlementations définies par la RGPD. Notamment par un hébergement de ses bases de données et sauvegardes stockées en Europe.  

T.O.P. répond aussi aux enjeux du traitement de la donnée du point de vue des utilisateurs. Lorsque le registre de données le nécessite, leurs équipes fournissent aux utilisateurs des informations claires sur l’utilisation de leurs données et leur font signer des CGU.   

Afin de garantir la sécurité, la solution les crypte l’ensemble des données. La confidentialité et l’intégrité des informations sont ainsi préservées.  
C’est en ce sens que T.O.P. enregistre également l’ensemble des événements afin de disposer d’une traçabilité complète, afin de conserver un historique sur l’ensemble des actions entreprises et des résultats obtenus.  

Toutes les actions et les résultats générés par T.O.P. sont destinés à servir le collaborateur dans sa relation avec l’entreprise. L’objectif est d’apporter une valeur ajoutée à chacun en fournissant des informations fiables et des recommandations pertinentes pour faciliter la prise de décisions.  

L’AI Act, le projet de réglementation européen en intelligence artificielle, s’inscrit dans la tendance mondiale visant à placer l’Union Européenne au niveau de l’ensemble du monde.  

Elle apparait comme étant avancée sur bon nombre de point, notamment sur la sécurité et l’encadrement légal de l’utilisation de ces technologies.   
T.O.P. dès sa création a suivi l’ensemble de ces dynamiques, afin de proposer un modèle éthique et conforme aux règles prochainement en vigueur.  

Autres actualités