En France, aux États-Unis et ailleurs, la licéité du mode d’apprentissage des intelligences artificielles fait débat. Les actions en justice contre OpenAI, l’entreprise de ChatGPT, se multiplient outre-Atlantique, le secteur culturel français interpelle le gouvernement sur le respect des droits d’auteur et, un peu partout sur le globe, les médias bloquent leurs contenus au robot d’exploration du Web d’OpenAI.

George R. R. Martin, célèbre auteur de la série Le Trône de fer (Game of Thrones), entame un nouveau chapitre, judiciaire cette fois-ci. En septembre dernier, il a déposé plainte contre OpenAI pour usage illicite de son œuvre devant le tribunal fédéral de New York. De nombreux auteurs et la Authors Guild, la plus ancienne organisation professionnelle d'écrivains publiés aux États-Unis, se sont joints à lui. Cette action de groupe n’est pas la première en la matière aux États-Unis. À la fin du mois de juin 2023, les romanciers Mona Awad et Paul Tremblay avaient déjà lancé une plainte en recours collectif auprès du tribunal fédéral de San Francisco contre la start-up américaine. Quelques jours plus tard, en juillet, trois autres auteurs américains – Sarah Silverman, Christopher Golden et Richard Kadrey – avaient saisi le même tribunal, pour les mêmes raisons.

Atteinte aux droits d’auteur

Tous reprochent à Open AI de ne pas respecter les droits d’auteur qui protègent leurs œuvres. La plainte en recours collectif de Mona Awad et Paul Tremblay indique que les plaignants n'ont pas consenti à “l’utilisation de leurs livres protégés par le droit d'auteur comme matériel de formation pour ChatGPT*”. Et que “néanmoins, leurs œuvres ont été ingérées et utilisées pour former ChatGPT*”. Selon les écrivains, leurs textes constituent des “ingrédients clef*” qui offrent au modèle de langage – appellation du logiciel d’IA conçu pour analyser et émettre du langage naturel – les “meilleurs exemples d’écriture de haute qualité*”. Toujours selon la plainte des deux auteurs, les intelligences artificielles se fournissent sur le controversé BookCorpus, une compilation de données créée en 2015 par une équipe de chercheurs en IA pour former des modèles linguistiques. Une bibliothèque numérique qui contient tant des contenus libres que des contenus protégés par le droit d’auteur, copiés sans consentement. L’utilisation illégale des œuvres permettrait in fine aux défendeurs de tirer des avantages commerciaux et des profits considérables.

Du côté de l’Hexagone, des voix s’élèvent devant l’essor des IAG : 73 syndicats de l’industrie culturelle française ont réclamé, dans une lettre adressée à Élisabeth Borne le 29 septembre 2023, la mise en place d’un cadre réglementaire respectueux des droits d’auteur et des droits voisins. Un cri d’alerte qui vise notamment OpenAI et son logiciel ChatGPT. Le collectif souligne que “ces IAG constituent des sortes de ‘boîtes noires’ qui ne permettent pas aux auteurs, à leurs cessionnaires et ayants droit de savoir si leurs œuvres ont été utilisées, à quelle date elles ont intégré le corpus alimentant l’IA et donc si leurs droits de propriété intellectuelle ont été respectés”. Les syndicats demandent l’introduction dans le futur règlement européen d’un principe de transparence totale qui se matérialiserait par “une liste détaillée des œuvres utilisées par les systèmes d’IAG et leurs sources, liste qui doit être tenue à la disposition des titulaires de droit.

La presse se barricade

Les romanciers ne sont pas les seuls à s’attaquer à OpenAI. La presse française et anglo-saxonne pose des limites. Le 9 août 2023, plusieurs agences de presse internationales, dont l’AFP, AP ou encore Getty Images, ont publié une tribune pour appeler les dirigeants politiques et les leaders du monde informatique à encadrer l’usage des IA qui “produisent des erreurs factuelles et des informations fictives, en plus de propager des préjugés”. Et là encore pour imposer de la transparence quant aux méthodes d’entraînement des IA.

Certains médias prennent déjà des dispositions. Depuis le 3 août 2023, le New York Times prohibe, sans le consentement écrit préalable de The New York Times Company, l’utilisation commerciale de son contenu, si c’est en lien avec l’entraînement d’un logiciel ou d’une IA. CNN, le Chicago Tribune, le Washington Post, l’agence britannique Reuters, Radio France, France Médias Monde, TF1 et Ouest France ou encore des médias australiens comme ABC suivent son exemple. La plupart de ces médias ont l’espoir de négocier des contrats de licence pour rémunérer les contenus utilisés par l’IA pour s’entraîner.

De son côté, OpenAI a déclaré au média américain Pymnts, en septembre dernier, avoir des échanges avec les “créateurs à travers le monde*”, notamment la Authors Guild, pour comprendre leurs préoccupations et trouver un terrain d’entente.

En attendant, l’AI Act, règlement européen proposé en avril 2021 par Bruxelles pour la régulation des intelligences artificielles, est entré dans la phase du trilogue de l’Union européenne, avec à la clef un compromis entre les pays membres, le Parlement et la Commission, à la fin de l’année.

Chloé Lassel

*en anglais dans le texte

Prochains rendez-vous

02 octobre 2024
Sommet du Droit en Entreprise
La rencontre des juristes d'entreprise
DÉJEUNER ● CONFÉRENCES ● DÎNER ● REMISE DE PRIX

Voir le site »

02 octobre 2024
Rencontres du Droit Social
Le rendez-vous des acteurs du Droit social
CONFÉRENCES ● DÉJEUNER  

Voir le site »

GUIDE ET CLASSEMENTS

> Guide 2024