Intelligence artificielle, négocier l’avenir
1. IA générateur d’opportunités commerciales : comment en tirer profit ?
Le développement à large échelle de l’intelligence artificielle n’est pas un effet de mode, pas plus que ne l’était l’avènement de l’Internet à la fin des années 1990. L’impact de l’IA sur la productivité pourrait ajouter des milliers de milliards de dollars à la valeur de l’économie mondiale. Selon l’étude du cabinet international de conseil McKinsey publiée en juin 20231, l’IA générative, à elle seule, pourrait ajouter l’équivalent de 2,6 à 4,4 mille milliards de dollars par an, dans 63 cas d’utilisation analysés. Dans le secteur bancaire, par exemple, la technologie pourrait apporter une valeur supplémentaire de 200 à 340 milliards de dollars par an si les cas d’utilisation de l’IA étaient pleinement mis en œuvre. Dans le secteur du retail, l’impact potentiel serait également important, de l’ordre de 400 à 660 milliards de dollars par an.
2. IA générateur de risques : comment les encadrer contractuellement ?
Le Règlement devrait entrer en application en 2026, et entre-temps, il est prévisible que les organisations publiques et privées soient saisies d’une peur de l’inconnu réglementaire qui ne manquera pas de se développer tant le maquis des réglementations encadrant l’IA, et les régulateurs et juridictions ayant leur mot à dire, sera dense.
Il est impératif pour les entreprises cherchant à intégrer l’IA dans leurs opérations, mais aussi, celles commercialisant des solutions d’IA, de se préparer et d’encadrer ses services et fournitures de manière adaptée. Une nouvelle génération de contrats est aujourd’hui soigneusement élaborée pour inclure des clauses spécifiques sur la responsabilité, la conformité aux normes de protection des données, et les mécanismes de protection des droits de propriété intellectuelle.
"Les entreprises doivent, dès maintenant, développer une compréhension profonde des réglementations en constante évolution"
Les entreprises doivent, dès maintenant, développer une compréhension profonde des réglementations en constante évolution pour naviguer avec succès dans le paysage juridique de l’IA. Il faut anticiper, car c’est aujourd’hui que se fabriquent les outils à succès de la fin des années 2020. Il serait regrettable pour une entreprise de devoir abandonner un outil prometteur, dans lequel des investissements conséquents ont été engagés, à cause de la non-conformité de ses données d’entraînement ou de son inadéquation avec le Règlement sur l’IA lors de son application. Il est donc essentiel, pour les deux années à venir, de se concentrer sur l’encadrement contractuel des risques liés à l’IA, qu’ils soient opérationnels, juridiques, ou réglementaires.
2.1 Gérer les risques associés à l’IA
Sont traditionnellement évoqués les enjeux de confidentialité, de propriété intellectuelle, et de protection des données personnelles. Ces trois enjeux façonnent la question de l’usage des données d’entraînement et de validation, mais aussi les celles de l’usage des outils en production et de leurs résultats. Le Règlement européen sur l’IA, comme le RGPD2 ou le droit européen de la propriété intellectuelle, impose aux parties à un contrat de s’accorder sur les diligences qu’elles ont respectivement à accomplir pour se garantir mutuellement – et promettre aux régulateurs compétents – la conformité aux lois en vigueur des mécanismes de collecte de données alimentant un moteur d’IA.
Les textes ne permettront pas aux cocontractants de s’exonérer d’une responsabilité, mais leur imposent au contraire de s’accorder sur les mécanismes de collaboration et de signalement leur permettant, chacun, de s’adapter à la découverte de défauts de conception liés aux données. Les parties au contrat devront donc s’accorder, en fonction de leur position dans la chaîne de conception ou d’utilisation d’outils d’IA, sur des obligations qu’elles se doivent l’une à l’autre, sans préjudice des réglementations en vigueur. Au-delà de la simple stipulation d’obligations de résultat, les entreprises doivent adopter une approche proactive et raisonnable dans la gestion des risques liés à l’IA. Il sera essentiel d’effectuer des vérifications et analyses rigoureuses de l’outil d’IA, de son fonctionnement et de son impact éthique
2.2 Méthodologie d’encadrement contractuel des risques
Nous pouvons anticiper une véritable guerre de la transparence opposant des prestataires d’IA frileux à l’idée de devoir dévoiler leurs sources et leurs secrets, à des clients potentiels conscients qu’ils confient à un tiers leur dépendance en termes d’innovation et de productivité. Il sera donc nécessaire pour les prestataires, par exemple, de rassurer leurs clients sur la confidentialité des données utilisées par ces derniers pour alimenter un modèle d’IA, incluant la confidentialité des "prompts" (formulaires d’interrogation) et des documents soumis, ainsi que des données des salariés utilisateurs finaux.
"Les entreprises qui mettront rapidement en place un système pour alimenter une IA obtiendront un avantage concurrentiel significatif"
Les prestataires seront passés au crible sur la source des données d’entraînement : nombre d’entre eux protègent par leur silence la licéité des mécanismes d’apprentissage qui leur ont permis d’élaborer leur solution d’IA. Ceux d’entre eux qui se résoudront à offrir une certaine transparence ou des garanties pourront en tirer soit un avantage compétitif, soit faire l’objet de contentieux de la part des producteurs d’informations sources.
Lorsque les clauses de garantie ne suffiront pas, d’aucuns exigeront des clauses d’audit. Dès lors, les contrats qui seront proposés par les prestataires d’IA seront à l’image du rapport de force qu’ils peuvent faire peser sur leurs clients. Si ces enjeux ne semblent pas nouveaux, il demeure que la promesse d’intelligence collaborative inhérente aux solutions d’IA soulèvera plus que jamais la question du partage de la valeur et des conséquences d’une rupture des relations contractuelles : les fameuses clauses de réversibilité seront au moins aussi importantes à négocier que les conditions d’adhésion.
3. Vos projets d’IA ont plus besoin de vos données que de vos peurs
Les entreprises qui mettront rapidement en place un système efficace et conforme de gestion des données utilisées pour créer et alimenter l’intelligence artificielle obtiendront un avantage concurrentiel significatif.
La performance d’une IA dépend fortement de la pertinence des données analysées pour répondre aux besoins spécifiques de l’organisation. En revanche, celles qui tardent à élaborer des stratégies pour collecter et sélectionner les données et mettre en place des infrastructures sécurisées pour leur exploitation, se heurteront à des processus d’apprentissage difficiles, voire à des blocages juridiques.
En conclusion, l’innovation et le cadre réglementaire autour de l’intelligence artificielle nécessitent une action immédiate pour rester compétitif. C’est aujourd’hui qu’il faut se préparer à être conforme aux réglementations en vigueur et à venir. C’est aujourd’hui que nous assemblons les données pour développer les outils de demain. C’est également le moment de nouer des partenariats stratégiques, encadrés par des contrats solides et adaptés à l’environnement de l’IA. En agissant ainsi, les entreprises peuvent prendre une longueur d’avance sur le marché grâce à des outils d’IA efficaces et éthiques, gagnant ainsi la confiance des utilisateurs et des clients. Aujourd’hui, nous préparons le terrain, demain, nous récoltons la confiance et le succès.
SUR LES AUTEURS
Patrice Navarro est associé au sein de l’équipe Protection des données et Cybersécurité à Paris. Il est spécialisé en données, cybersécurité, IA et dans le domaine des Tech transactions. Passionné par les technologies, il accompagne les clients, notamment dans les secteurs des sciences de la vie, des TMT et de la finance, pour qu’ils puissent naviguer au sein des complexités du Digital Age. Doté d’une expérience importante sur les défis technologiques auxquels les clients sont confrontés, il fournit des solutions juridiques sur mesure qui protègent leurs données, sécurisent leurs systèmes et assurent la mise en œuvre fluide des solutions d’intelligence artificielle.
Joséphine Beaufour est collaboratrice senior au sein de l’équipe Protection des données et Cybersécurité à Paris. Elle dispose d’une expertise dans l’encadrement juridique et contractuel de solutions d’IA, mais également en cybersécurité – tant en gestion des risques qu’en gestion de crise – ou encore en matière de publicité digitale, de réglementation des plateformes en ligne, et de retrait de contenu illicite en ligne. Par ailleurs, elle négocie des contrats informatiques complexes, et accompagne les entreprises dans tout type de procédure précontentieuse, notamment devant la Cnil. Son champ d’action englobe divers secteurs tels que la banque et finance, les médias, les télécoms, le retail et le luxe.
1 McKinsey, The Economic Potential of Generative IA: the Newt Productivity Frontier
2 Règlement UE n°2016/679 du 27 avril 2016