De la création de texte instantané avec "ChatGPT" à l’imitation parfaite de la voix d’un individu avec "Vall-e", l’intelligence artificielle ne cesse de faire parler d’elle. Mais quelle place conserve l’humain dans cette révolution ? Entretien avec Georgie Courtois et Julien Horn, avocats associés du cabinet d’avocats De Gaulle Fleurance.

Décideurs. L’avènement des outils basés sur l’intelligence artificielle tels que ChatGPT, Vall-e ou Dall-e soulève de nombreux enjeux. Quel est votre constat en la matière ?

Georgie Courtois. L’Union européenne met en place un cadre juridique, avec notamment le projet de règlement "Artificial Intelligence Act" qui encadre l’éthique et des projets de directives sur la responsabilité extracontractuelle liée à l’usage des outils d’IA. Cette ébauche de cadre juridique est complétée par une réflexion sur les droits de propriété intellectuelle et l’IA. En effet, se pose la question de la qualification des créations issues des outils d’IA que vous mentionnez tels que ChatGPT, Vall-e et Dall-e. En l’état de la législation actuelle, l’absence d’intervention d’un auteur personne physique au stade de la création rend impossible la qualification comme oeuvre de l’esprit du résultat généré par l’IA. Il va donc être nécessaire de réfléchir aux évolutions des conditions d’accès à la protection ou, par exemple, à la création d’un droit sui generis pour les créateurs de l’IA qui permet ces créations. Le Conseil supérieur de la propriété littéraire et artistique a publié en 2020 un rapport éclairant sur ce sujet.

"Malgré la fascination qui les entoure, ces IA ne sont pas intelligentes"

Malgré la fascination qui les entoure, ces IA ne sont pas intelligentes. Elles n’en restent pas moins des algorithmes entraînés avec des données spécifiques qui leur octroient certaines capacités. ChatGPT est un bon exemple : cet outil simule extrêmement bien la rédaction de contenu, mais l’IA ne comprend pas le sens de ce qu’elle produit, ce qui conduit parfois à des textes absurdes et totalement erronés. 

Que cela révèle-t-il sur les nouveaux usages ?

Julien Horn. Un outil comme ChatGPT réalise un travail de synthèse de l’état des connaissances comme le faisaient déjà les dictionnaires encyclopédiques du XIXe siècle. De fait, il faudrait percevoir ce type d’outils comme un moyen d’accéder plus facilement et rapidement à l’information. En revanche, ils ne sont pas (encore ?) capables d’innovation. Dans le cadre de nos métiers de service, les clients nous approchent pour que l’on imagine des solutions innovantes qui leur permettent de prendre un avantage sur leurs concurrents. La valeur ajoutée de notre métier de conseil tient à notre capacité créatrice, à celle de réfléchir autrement et faire des choix opportuns. Et ça, l’IA n’est pas encore capable de le faire.

Quelles conséquences ces nouvelles tendances exercent sur vos pratiques ?

J. H. Il faut encore que chacun trouve le moyen d’intégrer ces outils à sa pratique professionnelle. Et, pour cela, je pense que le meilleur moyen de comprendre ces outils et leurs limites, c’est de contribuer à leur création. C’est pourquoi nous avons développé avec la legaltech Case Law Analytics les solutions d’IA LitiMark et LitiDesign qui permettent d’estimer les chances de succès d’une action en contrefaçon de marque ou de dessins & modèles en se basant sur notre analyse de centaines de décisions rendues par les juridictions françaises. 

"L'Union européenne fait de l’AI Act un texte politique"

G. C. À terme, nous pourrions avoir accès à une information extrêmement précise et pertinente compilant l’intégralité de la jurisprudence afin de proposer la meilleure stratégie pour une affaire. Pour autant, l’humain ne disparaîtra pas au profit de l’IA. La réglementation européenne va dans ce sens avec le concept de "human in the loop" qui veille à ce que l’IA agisse toujours sous supervision humaine.

Le très attendu "Artificial Intelligence Act" est actuellement en discussion. Quel est votre positionnement en la matière ?

G. C. Avec l’AI Act, l’Union européenne suit la même démarche qu’elle avait menée avec le Règlement général sur la protection des données (RGPD). En imposant sa vision humaniste et son cadre éthique au-delà de ses frontières, elle fait de l’AI Act un texte politique. Les critères d’applicabilité sont similaires au RGPD et couvriront les fournisseurs et utilisateurs d’IA dans l’Union européenne. Le règlement interdira notamment certains types d’IA, en particulier le système de notation, ou "crédit social" tel qu’il est mis en place en Chine. L’usage des IA à haut risque sera strictement encadré, avec des obligations de déclaration et de transparence. L’ambition de ce texte vise à établir un cadre éthique pour l’IA, en s’assurant que l’humain reste au centre de la décision.

L’IA s’invite dans toujours plus de secteurs. Quelles prochaines tendances identifiez-vous ?

G. C. Les véhicules autonomes constitueront une révolution dans les années à venir. Cependant, leur arrivée sur nos routes dépend encore de l’encadrement juridique de la responsabilité de l’IA. Par ailleurs, il est nécessaire de se méfier de la capacité d’imitation de l’IA. Au fil de l’évolution des systèmes d’imitation de la voix et de deep fake, il faut anticiper l’émergence d’une nouvelle cybercriminalité. L’éducation de la population est primordiale pour informer sur ces nouvelles capacités techniques qui sèment le trouble dans le principe de réalité.

Newsletter Flash

Pour recevoir la newsletter du Magazine Décideurs, merci de renseigner votre mail

GUIDE ET CLASSEMENTS

> Guide 2023