Au sein de l’Association française des juristes d’entreprise (AFJE), Anna-Catherine Bénard-Lotz a fondé la Commission Expert Innovation numérique & Directions juridiques, et copilote le groupe scientifique IA et juristes, créé en mars 2024. Elle revient sur les divers enjeux liés à l’arrivée des IA génératives dans les entreprises.
Anna-Catherine Bénard-Lotz (AFJE) : "Nous travaillons à l’élaboration d’un code de conduite IA de référence"
Décideurs RH. Quels dispositifs réglementaires ont été instaurés afin d’encadrer l’arrivée des IA génératives ?
Anna-Catherine Bénard-Lotz. À l’échelle européenne, un règlement sur l’IA (RIA) a été publié au Journal officiel de l’UE le 12 juillet dernier, dont l’entrée en vigueur progressive est prévue à partir du 1er août 2024. C’est une réglementation extraterritoriale très ambitieuse qui encadre le développement, la mise sur le marché et l’utilisation de systèmes d’IA par une approche fondée sur les risques classés en quatre catégories. Ce règlement prévoit des obligations en matière de transparence et de certifications (dont les marquages CE), de documentation et d'évaluation des systèmes d’IA. Il prévoit l’obligation pour les entreprises de mener des études d’impact sur les droits fondamentaux quand des IA à risques sont employées, comme celles qui utilisent la reconnaissance faciale. En parallèle, il existe aussi des réglementations sectorielles comme le règlement européen Digital Service Act (DSA) et le Règlement Digital Market Act (DMA) qui visent à réglementer les plateformes en ligne par des obligations de transparence et de responsabilité, notamment dans l’utilisation des algorithmes.
Il existe en outre des “bacs à sable” réglementaires qui permettent aux entreprises voulant développer une intelligence artificielle de tester leur technologie ou service, et d’être accompagnées par des autorités nationales au sein de l’UE ou par la Commission européenne, afin de s’assurer que le développement de l’outil soit bien conforme aux dispositions prévues par le règlement européen sur l’IA.
Enfin, le “droit mou” a toute sa place dans la régulation de l’IA, en ce qu’il offre une flexibilité et une capacité d’adaptation rapide face à une technologie qui évolue à toute vitesse. À titre d’exemple, aux Etats Unis, le National Institute of Standard and Technology (NIST) publie des recommandations afin de guider les entreprises vers une utilisation éthique et sécurisée de l’IA. Sous l’impulsion de Thierry Breton, la Commission européenne a, quant à elle, favorisé l’instauration d’un pacte volontaire de l’IA et propose des lignes directrices et des exemples de bonnes pratiques que les entreprises peuvent suivre, sur la base du volontariat. Au niveau international, le Trade and Technology Council organise des réunions régulières entre les commissaires européens et leurs homologues des États-Unis, afin de discuter des enjeux liés à l’IA. En nous inspirant de ces pratiques, nous menons actuellement au sein du groupe scientifique IA et juristes de l’AFJE une réflexion sur l’élaboration d’un code de conduite IA de référence adapté aux enjeux de la profession juridique.
À lire : Intelligence artificielle, négocier l’avenir
Quelles sont les principales répercussions de l’IA sur le monde du travail ?
Le Boston Consulting Group a publié en juin dernier une enquête internationale, menée auprès de plus de 13 000 dirigeants, managers et employés dans plus de quinze pays. Elle souligne que le recours à l’IA est de plus en plus répandu : 43 % des sondés l’utilisent régulièrement au travail contre 20 % en 2023, et 58 % estiment que l’IA leur fait gagner au moins cinq heures de travail par semaine. Ils sont 41 % à utiliser ce gain de temps pour effectuer davantage de tâches, 38 % le mettent à profit pour travailler sur des missions stratégiques. Une tendance également mise en avant par une étude de l’Apec publiée en mai : 90 % des cadres qui utilisent l’IA générative estiment qu’ils vont gagner en productivité.
“58% des sondés estiment que l’IA leur permet de gagner au moins cinq heures de travail par semaine”
Les IA génératives vont ainsi réinventer en profondeur notre façon de travailler et faire gagner en productivité et en efficacité opérationnelle, grâce à l’automatisation de tâches répétitives et parfois fastidieuses. Il faut toutefois être attentifs aux effets rebonds : se concentrer uniquement sur des missions à haute valeur ajoutée, aux dépens de certains travaux répétitifs, risque d’augmenter l’intensité des journées de travail et d’entraver le repos mental des salariés. Une question centrale demeure donc, celle de la place de l’humain face à ces innovations technologiques.
Quant aux impacts sur les emplois eux-mêmes, un rapport de Goldman Sachs publié en 2023 a effrayé l’opinion en indiquant que 300 millions d’emplois seront touchés par l’IA. Je crois néanmoins qu’il faut aborder cette thématique en prenant en compte les tâches concernées et les périmètres d’emplois à redessiner, plutôt que les pertes sèches d’emplois.
À lire : Management par l’intelligence artificielle : les Temps modernes 2.0
Comment l’AFJE accompagne les entreprises sur les enjeux liés à l’IA ?
Les entreprises sont actuellement dans une phase d’expérimentation, d’exploration et d’identification des besoins. Et de nombreux aspects sont considérés par les directions juridiques et RH avant même d’installer un système d’IA : protection des données, gouvernance adaptée et respect des normes internes, utilisation sécurisée, accompagnement et formation des salariés, élaboration de chartes éthiques, etc. Dans ce cadre, la mission de l’AFJE est de mener des réflexions sur les enjeux et les impacts de l’IA, et d’accompagner les directions juridiques sur l’ensemble des sujets techniques auxquels elles sont confrontées.
Pour cela, l’AFJE se repose sur ses différentes commissions spécialisées, notamment la Commission Innovation Numérique & Directions juridiques, dont j’ai la responsabilité. Elle a pour mission d’acculturer les juristes aux innovations technologiques ‒ dont les IA génératives font partie ‒ et à leurs répercussions sur les métiers et la gouvernance.
Par ailleurs, je suis copilote du Groupe Scientifique IA et juristes, créé en mars dernier par l’AFJE. Une dizaine de directions juridiques, issues notamment des secteurs de la tech et de la grande distribution, nous ont déjà rejoints. Les travaux, articulés autour de deux axes, institutionnels et opérationnels, nous conduisent à considérer les enjeux de réglementation de l’IA et ses implications éthiques, avec l’ambition d’associer notre groupe à des acteurs publics. Outre le projet de code de conduite IA, un projet de bac à sable pour tester et comprendre les fonctionnalités d’une IA est inclus dans notre plan de route.
“Face à ces risques de biais et discriminations lors du recrutement, les fonctions RH doivent être particulièrement sensibilisées aux enjeux d’éthique de l’intelligence artificielle”
Où en est-on de la formation aux IA génératives ?
L’article 4 du RIA prévoit l’obligation des entreprises de prendre des mesures pour que leurs salariés aient un niveau de connaissance suffisant en IA. Selon l’étude du BCG, seuls 30 % des managers et 28 % des salariés ont été formés à l’IA durant l’année écoulée. Pourtant, la formation est essentielle pour bien maîtriser ces outils et appréhender de la meilleure façon les enjeux juridiques et éthiques de l’IA. Et ce d’autant plus que la demande vient des cadres : interrogés par l’Apec, ils sont 53 % à avoir exprimé le souhait de bénéficier d’une formation sur l’IA.
Le secteur du recrutement doit aussi faire preuve d’une grande vigilance car nous serons bientôt en présence d’IA se parlant en quelque sorte entre elles lors des interactions entre candidats et recruteurs : côté candidats, certains CV et lettres de motivation seront rédigés ou automatisés grâce à l’IA, et côté recruteurs, la sélection automatisée des CV par des algorithmes pourra engendrer des risques de discriminations liées à l’âge ou aux origines. Pour remédier à ces risques de biais et discriminations lors du recrutement, les fonctions RH doivent être particulièrement sensibilisées aux implications éthiques de l’intelligence artificielle.
Propos recueillis par Caroline de Senneville