L’IA et les droits d’auteur : les labels éthiques se multiplient !

par | Fév 1, 2024

Et si l’absence d’IA dans les process et les produits était un facteur de différenciation sur le marché ? C’est en tout cas le point de vue de Gartner, qui prévoit que 20 % des marques se positionneront sur l’absence d’IA dans leur business model à l’horizon 2027.

Il faut dire que les questions éthiques se font de plus en plus pressantes, et le sujet semble migrer vers la RSE, avec des implications sur la perception des clients d’une technologie disruptive mais qui suscite des inquiétudes, par exemple sur l’exploitation des œuvres protégées par les droits d’auteur ou encore la destruction d’emplois.

C’est dans ce contexte que nous assistons à l’essor de nouveaux labels et de certifications sur l’utilisation éthique de l’IA dans l’entreprise. On fait le point…

IA et droits d’auteur : le premier acte d’une longue bataille

Ed Newton-Rex a quitté son poste de direction au sein de Stability AI, acteur majeur de l’Intelligence Artificielle générative qui édite le modèle de génération d’image IA Stable Diffusion, suite à un différend avec le conseil d’administration sur la gestion des droits d’auteur.

Selon Newton-Rex, la firme forme son modèle sur la base de millions d’images récupérées sur internet sans l’accord de leurs auteurs. Comme beaucoup d’autres pionniers dans le domaine de la genAI, Stability AI soutient que cette méthode ne viole pas le droit d’auteur et qu’elle constitue une forme d’utilisation légale (fair use)des œuvres protégées.

 « Des entreprises qui valent des milliards de dollars utilisent, sans autorisation, les œuvres de créateurs pour entraîner des modèles d’IA générative qui servent ensuite à créer de nouveaux contenus qui rivalisent avec les œuvres originales. Je ne comprends pas comment on peut accepter cela dans une société où l’économie des arts créatifs repose sur le droit d’auteur », a-t-il écrit dans un tweet publié en novembre dernier pour annoncer sa démission.

C’était d’ailleurs l’un des premiers actes de la bataille qui fait aujourd’hui rage autour de l’utilisation d’œuvres protégées par le copyright pour entraîner l’IA. En décembre, le New York Times avait en effet poursuivi OpenAI devant un tribunal de Manhattan, accusant la firme d’avoir illégalement utilisé des millions d’articles du journal pour entraîner des systèmes d’IA destinés à le concurrencer.

Entre-temps, en juillet 2023, la comédienne Sarah Silverman et d’autres écrivains ont poursuivi OpenAI et Meta, accusant ces entreprises d’utiliser leurs écrits pour entraîner des modèles d’IA sans leur autorisation. Plus tôt dans l’année, les artistes Kelly McKernan, Sarah Andersen et Karla Orti avaient poursuivi Midjourney, Stability AI et DeviantArt, qui développent des modèles d’IA générant des images, affirmant que ces éditeurs avaient entraîné leurs modèles d’IA sur leurs œuvres.

L’essor de labels éthiques autour de l’utilisation de l’IA

Comme l’explique Gartner dans une publication parue en début d’année, 20 % des marques vont se démarquer de la concurrence sur le fait que leurs produits et leur business model n’impliquent pas l’utilisation de l’IA à l’horizon 2027.

En réponse à ce besoin, de nombreux acteurs ont commencé à proposer des programmes de certification aux entreprises qui n’utilisent pas l’IA ou, à minima, qui disposent d’une politique de gouvernance stricte pour utiliser l’IA dans un cadre éthique, sans violer les droits d’auteur et sans menacer les emplois.

Fairly Trained, une structure fondée par Ed Newton-Rex, a opté pour une autre approche : labelliser les entreprises spécialisées dans l’IA qui demandent l’autorisation et qui, le cas échéant, achètent les droits d’auteur des œuvres qu’elles souhaitent utiliser dans l’entraînement de leurs modèles IA.

Sa première accréditation, baptisée « Licensed Model », sera accordée aux entreprises qui utilisent sous licence des données protégées pour entraîner leurs modèles. Fairly Trained affirme que ce nouveau label ne concerne pas les entreprises qui s’appuient sur l’argument du « fair use » pour exploiter des travaux et des œuvres sans autorisation.

Fairly Trained, qui n’a que quelques semaines, a déjà certifié 9 entreprises spécialisées dans l’IA générative et le Machine Learning, essentiellement dans la génération d’images, de musique et de voix de synthèse. Il s’agit de Beatoven.ai, Boomy, BRIA.ai, Endel, LifeScore, Rightsify, SOMMS.AI, Soundful et Tuney.

Où positionner le curseur entre l’éthique et le progrès technologique ?

L’entraînement de modèles d’intelligence artificielle (IA) avec des données protégées par les droits d’auteur soulève une série de questions juridiques et éthiques délicates. Au cœur de ces enjeux se trouve le conflit entre le respect des droits de propriété intellectuelle, d’une part, et le progrès technologique d’autre part.

Sur le plan juridique, l’utilisation de données protégées par les droits d’auteur pour entraîner des IA peut enfreindre les lois relatives au droit d’auteur, notamment en ce qui concerne la reproduction et la distribution de ces œuvres.

Les droits d’auteur, tels que définis par la Convention de Berne et appliqués dans de nombreux pays, accordent aux créateurs des droits exclusifs sur leurs œuvres. Leur utilisation sans autorisation peut donc constituer une violation de ces droits. Cependant, certaines exceptions existent, comme la doctrine du « fair use » aux États-Unis ou les exceptions pour citation, critique, revue ou enseignement en Europe. Ces exceptions permettent l’utilisation d’œuvres protégées dans certaines conditions spécifiques, mais leur application à l’entraînement des IA reste un sujet de débat juridique.

D’un point de vue éthique, l’utilisation de données protégées soulève des questions sur le respect de la propriété intellectuelle et la reconnaissance du travail des créateurs. Il y a une préoccupation croissante que les technologies d’IA puissent utiliser le travail créatif sans compensation ou attribution adéquate, potentiellement diminuant la valeur et l’incitation à la création originale.

De plus, il existe des préoccupations éthiques liées à la transparence et au consentement. Les individus et les entreprises qui créent des œuvres protégées par des droits d’auteur peuvent ne pas être conscients ou consentir à ce que leurs œuvres soient utilisées pour entraîner des modèles d’IA.

La filière de l’IA et les législateurs sont confrontés au défi de trouver l’équilibre entre la protection des droits des créateurs et la promotion de l’innovation technologique. Certains suggèrent que de nouvelles réglementations ou des modifications des lois existantes sur le droit d’auteur pourraient être nécessaires pour mieux s’adapter à l’ère de l’IA. On parle par exemple d’inclure l’élaboration de nouvelles exceptions au droit d’auteur pour l’entraînement des IA ou la création de systèmes de licences plus souples qui permettent l’utilisation de données protégées tout en respectant les droits des créateurs.

Recevez chaque semaine toute
l’actualité marketing et vente BtoB

Insight, études, actualité, levée de fonds, Interviews…


Les informations à caractère personnel recueillies font l’objet d’un traitement par le site BtoB Leaders de la société Companeo, (RCS Nanterre B 432 247 898). Elles sont nécessaires entre autres, à la réception de nos newsletters. Companeo ou toutes sociétés du groupe Infopro Digital pourront l’utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles, ou vous intégrer dans des annuaires professionnels. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.