Droit de l’informatique et des nouvelles technologies

Souveraineté numérique : Nathalie Dreyfus citée par TF1info dans l’enquête sur le contrat Talkwalker

Une experte judiciaire française sollicitée par TF1info pour éclairer les enjeux juridiques

Le 16 juin 2025, le site d’information TF1info, rattaché au groupe TF1, a publié une enquête approfondie sur la polémique suscitée par l’attribution d’un marché public de veille numérique (« social listening ») à l’entreprise Talkwalker. À cette occasion, Nathalie Dreyfus, experte judiciaire près la Cour de cassation, fondatrice du cabinet Dreyfus, a été citée en tant qu’autorité juridique sur les enjeux liés à la souveraineté des données et au CLOUD Act américain.

L’intervention de Nathalie Dreyfus dans cet article souligne l’importance de disposer d’une analyse juridique précise face à la complexité des réglementations internationales en matière de données. Elle éclaire les implications réelles – et souvent mal comprises – de l’extraterritorialité des lois américaines lorsqu’un prestataire étranger opère sur le territoire européen.

Social listening : comprendre la mission confiée à Talkwalker

Le “social listening” consiste à analyser les publications publiques postées sur les réseaux sociaux afin d’identifier des tendances, des signaux faibles ou des sujets de préoccupation collective. Cette pratique est aujourd’hui utilisée aussi bien par les entreprises que par les institutions publiques, notamment pour ajuster leur communication ou leur stratégie d’action publique.

Dans son article, TF1info précise que cette veille ne concerne en aucun cas les contenus privés (mails, messages directs, comptes privés), mais uniquement des contenus publics librement accessibles.

Le Service d’information du gouvernement (SIG), rattaché à Matignon, explique que ces analyses visent à mieux comprendre les préoccupations des Français afin d’adapter les messages gouvernementaux.

Pourquoi la nationalité du prestataire a-t-elle provoqué un tollé ?

La polémique vient du fait que la société Talkwalker, initialement luxembourgeoise, a été rachetée en 2024 par Hootsuite, un groupe canadien dont certains actionnaires sont américains. Cette information a fait craindre que les données collectées puissent tomber sous le coup du CLOUD Act, une loi américaine controversée.

Un internaute affirmait sur X (ex-Twitter) que « toute entreprise ayant son siège aux États-Unis a l’obligation de coopérer avec la communauté du renseignement ». Bien que cette affirmation soit partiellement inexacte, elle a contribué à semer la confusion.

C’est dans ce contexte que l’expertise de Nathalie Dreyfus a été sollicitée par TF1info, afin de clarifier la portée réelle du CLOUD Act et ses conséquences sur la protection des données collectées par Talkwalker.

Ce qu’explique Nathalie Dreyfus dans l’article de TF1info

Nathalie Dreyfus rappelle que le CLOUD Act permet bien aux autorités judiciaires américaines d’accéder à des données, y compris stockées hors des États-Unis, à condition qu’il existe un cadre juridique strict : procédure pénale, mandat judiciaire, et justification liée à des affaires graves (criminalité, terrorisme, etc.).

« Ce texte ne donne accès à des données stockées hors des États-Unis que dans certains cas très spécifiques, dans le cadre de procédures pénales, liées à des affaires criminelles ou terroristes, avec le mandat d’un tribunal », explique-t-elle.

Elle souligne également que la situation juridique de Talkwalker — désormais entreprise canadienne — ne permet pas de la soumettre directement au CLOUD Act. Le Canada n’ayant pas d’équivalent strictement comparable à cette loi américaine, la probabilité que des données françaises soient transmises aux autorités étrangères est donc extrêmement faible.

La question de la souveraineté technologique

Plus que la protection des données personnelles (garantie par le RGPD et le DSA), la véritable question soulevée par ce dossier est celle de la souveraineté numérique européenne.

Comme l’expliquent plusieurs experts cités dans l’article, dont Suzanne Vergnolles (CNAM), ce qui pourrait intéresser d’éventuels acteurs étrangers ne sont pas les données des citoyens mais les tendances stratégiques que l’État français cherche à comprendre ou surveiller.

Nathalie Dreyfus précise que ces préoccupations relèvent du secret des affaires, voire de la sécurité nationale, et méritent une attention particulière dans les appels d’offres publics.

Une reconnaissance médiatique du rôle du droit dans la transformation numérique

La citation de Nathalie Dreyfus dans cette enquête publiée par TF1info atteste de la place centrale que les juristes spécialisés occupent aujourd’hui dans les débats sur l’éthique des technologies, la souveraineté numérique et la régulation internationale des données.

Cette visibilité renforce l’autorité du cabinet Dreyfus dans les domaines du droit numérique, du droit des données, et de la gestion des risques juridiques liés à l’innovation technologique.


Ce qu’il faut retenir

Fait Impact
Talkwalker a remporté un marché de veille numérique pour le gouvernement Inquiétudes sur la nationalité du prestataire
La société appartient désormais à un groupe canadien Ne relève pas du CLOUD Act américain de manière automatique
Nathalie Dreyfus citée par TF1info Apporte un éclairage juridique essentiel sur le risque réel
Risques pour la vie privée ? Très faibles : seules les publications publiques sont analysées
Enjeu principal Souveraineté technologique, dépendance aux acteurs non-européens

 


FAQ – Social listening, CLOUD Act et souveraineté numérique

Qu’est-ce que le “social listening” ?
Le social listening est une méthode de veille numérique qui consiste à analyser les publications publiques sur les réseaux sociaux afin de détecter des tendances, des signaux faibles ou des sujets d’intérêt collectif. Il ne s’agit en aucun cas de surveiller les messages privés ou les communications confidentielles. Cette pratique est encadrée par le RGPD et s’inscrit dans une logique d’analyse d’opinion publique.

En savoir plus sur la conformité RGPD en matière de données personnelles

Le gouvernement peut-il légalement surveiller les internautes français ?
Non. Le gouvernement n’a pas le droit de collecter des données privées sans base légale stricte. Les actions de veille comme celle confiée à Talkwalker portent uniquement sur des contenus publics. La législation française et européenne (RGPD, DSA, loi Informatique et Libertés) interdit toute collecte abusive ou traitement non autorisé de données personnelles sensibles, comme les opinions politiques ou religieuses.

Qu’est-ce que le CLOUD Act américain ?
Le CLOUD Act est une loi adoptée aux États-Unis en 2018. Elle permet aux autorités judiciaires américaines de demander à certaines entreprises, notamment celles ayant leur siège aux États-Unis, de fournir des données électroniques, même si elles sont stockées à l’étranger. Cependant, cette procédure ne peut s’appliquer que dans des cas spécifiques (enquêtes pénales, criminalité grave) et avec le mandat d’un juge.

Le CLOUD Act s’applique-t-il à Talkwalker ?
Selon Nathalie Dreyfus, experte judiciaire en droit numérique, la réponse est non :

« Le fait que Hootsuite, qui compte parmi ses actionnaires des Américains, ne suffit pas, en soi, à la rendre juridiquement soumise au CLOUD Act. »

La probabilité que des données françaises publiques collectées par Talkwalker soient transmises aux États-Unis est quasiment nulle, d’autant plus que le Canada (où se trouve Hootsuite) ne dispose pas d’un équivalent exact du CLOUD Act.

Pourquoi parle-t-on de souveraineté numérique ?
La souveraineté numérique désigne la capacité d’un État ou d’une organisation à contrôler ses infrastructures, ses données et ses technologies stratégiques. Lorsque l’État confie des missions de collecte de données ou d’analyse à des entreprises étrangères, cela peut poser des problèmes de dépendance technologique, de sécurité nationale ou de fuite de données sensibles.

Découvrez nos services de conseil en droit des technologies et souveraineté numérique

Comment une entreprise peut-elle se protéger dans ce contexte ?
Pour les entreprises qui utilisent des solutions cloud ou de traitement de données, il est essentiel de :

  • Vérifier la nationalité et la localisation des prestataires
  • S’assurer que les données sont hébergées en Europe
  • Inclure des clauses de conformité RGPD dans les contrats
  • Mettre en place une gouvernance juridique des données

Le cabinet Dreyfus accompagne ses clients dans l’évaluation de ces risques et la mise en conformité de leurs solutions numériques.

Read More

Thaler c. Perlmutter : la confirmation du principe d’une paternité humaine en droit d’auteur

Le 18 mars 2025, la Cour d’appel fédérale du District de Columbia a rendu une décision attendue dans l’affaire Thaler c. Perlmutter, réaffirmant qu’une œuvre non créée par un être humain ne peut bénéficier d’une protection au titre du droit d’auteur. Cette décision revêt une importance considérable pour les professionnels de la propriété intellectuelle à l’ère de l’intelligence artificielle (IA).

Introduction

La montée en puissance de l’intelligence artificielle suscite des transformations majeures dans le domaine de la création, mais aussi de profondes interrogations juridiques. Peut-on encore parler de « création » au sens du droit d’auteur lorsque l’œuvre est issue d’un processus autonome piloté par une machine ? La décision Thaler c. Perlmutter permet de répondre clairement à cette interrogation : seul un être humain peut être considéré comme auteur au sens du Copyright Act américain.

Contexte et faits de l’affaire

Le requérant, Dr Stephen Thaler, est un chercheur spécialisé dans le développement de systèmes d’intelligence artificielle. Il a conçu un programme de génération autonome dénommé The Creativity Machine, capable de produire des œuvres originales sans intervention humaine directe. En mai 2019, il a soumis une demande d’enregistrement pour une image intitulée A Recent Entrance to Paradise, en désignant la machine comme auteur unique de l’œuvre.

Procédure et moyens soulevés

A – Demande initiale et rejet

La Copyright Office a rejeté la demande, se fondant sur un principe bien établi : une œuvre doit émaner d’un être humain pour bénéficier de la protection du droit d’auteur. La Compendium of U.S. Copyright Office Practices, qui fait foi en la matière et qui est un manuel produit par le US Copyright Office, exclut expressément l’enregistrement d’œuvres créées « automatiquement sans intervention humaine ».

B – Procédure devant la juridiction de première instance

Dr Thaler a contesté ce rejet devant la cour fédérale du District de Columbia. Il a invoqué l’absence de définition explicite du mot « auteur » dans la loi et a plaidé pour une interprétation évolutive tenant compte de l’IA. Le tribunal a confirmé la décision de l’Office, réaffirmant que la paternité humaine constitue un fondement indissociable du droit d’auteur.

C – Recours devant la Cour d’appel

En appel, les arguments de fond ont été reconduits : Dr Thaler soutenait que le terme « auteur » pouvait inclure une machine autonome. Il arguait également de la doctrine du « work made for hire » pour revendiquer la titularité, en qualité de concepteur de la machine.

Analyse juridique de la Cour

A – Interprétation du terme « auteur » en droit américain

La Cour d’appel a procédé à une interprétation stricte du Copyright Act, dans sa version de 1976. Plusieurs dispositions démontrent que le législateur visait uniquement les personnes physiques :

  • Le droit d’auteur naît automatiquement au bénéfice de l’auteur, notion juridique incompatible avec les machines.
  • La durée des droits dépend de la vie de l’auteur (+70 ans), notion inapplicable à un système d’IA.
  • Les dispositions sur la transmission héréditaire (époux, enfants, petits-enfants) confortent cette approche anthropocentrique.
  • Les actes de cession nécessitent une signature, que ne peut produire un système algorithmique.

En complément, la jurisprudence antérieure (Burrow-Giles, Naruto, Kelley) et les travaux de la Commission CONTU (Commission on New Technological Uses of Copyrighted Works) confirment cette interprétation constante

B – Rejet des arguments en faveur de la titularité non humaine

La Cour a écarté l’argument selon lequel la machine serait une sorte d’« employé » au sens du work made for hire. Cette doctrine suppose l’existence d’un contrat et d’un lien de subordination entre une personne morale ou physique et un créateur humain. Aucune analogie valable ne permettait ici de transposer ce cadre à une entité algorithmique.

Conséquences pour les œuvres générées par l’IA

A – La nécessité d’une implication humaine directe

La décision ne ferme pas la porte à l’enregistrement d’œuvres assistées par l’IA. Elle exige simplement que l’élément original protégé émane d’un apport créatif humain identifiable. Les directives de l’USPTO et du Copyright Office vont dans ce sens : tout dépend du rôle actif de l’utilisateur dans la production.

B – Perspectives d’évolution du droit

À mesure que l’IA générative gagne en autonomie, la frontière entre outil et auteur devient plus floue. Toutefois, seule une intervention législative pourrait permettre une extension du champ de la protection à des entités non humaines. Les débats sont ouverts, tant au Congrès qu’au sein du Copyright Office (rapports de 2024 et 2025 sur les deepfakes, digital replicas, etc.).

Conclusion

La décision Thaler c. Perlmutter consacre un principe fondamental : l’auteur doit être humain. Cela garantit la cohérence du système juridique actuel et préserve la philosophie originelle du droit d’auteur, fondée sur la reconnaissance de l’effort intellectuel individuel.

Besoin de conseils d’experts en intelligence artificielle et propriété intellectuelle ? Le cabinet Dreyfus & Associés est spécialisé en droit de la propriété intellectuelle, notamment en matière de marques, de droits d’auteur et de questions juridiques liées à l’IA. Nos experts suivent de près les évolutions du droit en matière d’IA et de propriété intellectuelle !

Dreyfus & Associés collabore avec un réseau mondial d’avocats spécialisés propriété intellectuelle afin d’offrir des solutions juridiques sur mesure dans le domaine en constante évolution de l’IA et du droit d’auteur.

Rejoignez-nous sur les réseaux sociaux !


FAQ

1 – Est-ce que l’IA a des droits d’auteur ?
Non. En l’état actuel du droit, tant aux États-Unis qu’en France et dans la majorité des juridictions internationales, l’intelligence artificielle ne peut pas être titulaire de droits d’auteur. Le droit d’auteur est exclusivement réservé aux personnes physiques, c’est-à-dire aux êtres humains ayant exprimé une création originale. La jurisprudence récente (Thaler v. Perlmutter, 2025) a réaffirmé cette exigence : une œuvre générée de manière autonome par une IA n’est pas protégeable, faute d’auteur humain identifiable. Les machines sont considérées comme de simples outils au service de la création, et non comme des sujets de droit.

2 – Pourquoi l’IA menace-t-elle le droit d’auteur ?
L’intelligence artificielle remet en cause certains fondements du droit d’auteur, notamment l’originalité, la titularité et la responsabilité juridique. Lorsqu’une œuvre est générée sans intervention humaine significative, il devient difficile de déterminer si elle peut être protégée, et si oui, au bénéfice de qui. De plus, les IA peuvent être entraînées à partir de données protégées sans autorisation, ce qui soulève des risques de contrefaçon massive, de désintermédiation des créateurs et d’appauvrissement des ayants droit. Enfin, la prolifération de contenus générés automatiquement pose un défi considérable à l’identification et à la protection des œuvres humaines authentiques.

3 – Quel est l’impact de l’intelligence artificielle sur le droit ?
L’intelligence artificielle constitue à la fois un défi et une opportunité pour les systèmes juridiques. Son impact se manifeste à plusieurs niveaux :

  • En droit de la propriété intellectuelle, elle oblige les praticiens à redéfinir les contours de la création, de la titularité et de l’originalité.
  • En droit des contrats, elle soulève des questions sur la validité des accords générés ou négociés par des agents autonomes.
  • En matière de responsabilité, elle interpelle les systèmes sur l’attribution de la faute en cas de dommages causés par une IA.
  • En matière de protection des données, elle interagit fortement avec les régimes de privacy et de régulation algorithmique.

Les systèmes juridiques devront s’adapter en profondeur, sans pour autant renoncer à leurs principes fondamentaux, afin de garantir un encadrement efficace et équitable du développement technologique.

Read More

The Thomson Reuters Enterprise Centre GmbH and West Publishing Corp. v. Ross Intelligence Inc. Case: Enjeux juridiques et impact sur l’entraînement des IA

Thomson Reuters Enterprise Centre GmbH et al v. ROSS Intelligence Inc., Docket No. 1:20-cv-00613 

Dans un contexte où l’intelligence artificielle (IA) bouleverse les industries, la question de l’utilisation d’œuvres protégées par le droit d’auteur pour entraîner ces systèmes devient un enjeu majeur. L’affaire Thomson Reuters Enterprise Centre GmbH et West Publishing Corp. v. Ross Intelligence Inc. du 11 février 2025 illustre ce débat à travers une confrontation entre un éditeur de bases de données juridiques et une startup spécialisée en IA juridique. Ce litige met en lumière des interrogations cruciales sur la portée du droit d’auteur et sur l’application du fair use dans le domaine de l’intelligence artificielle.

Contexte de l’affaire

Les parties impliquées

  • Thomson Reuters Enterprise Centre GmbH et West Publishing Corp. sont des fournisseurs majeurs de services d’information juridique, notamment à travers leur plateforme Westlaw, qui propose des analyses et commentaires juridiques enrichis.
  • Ross Intelligence Inc., une startup spécialisée en IA, cherchait à révolutionner la recherche juridique en utilisant l’intelligence artificielle pour analyser et extraire des informations juridiques de manière plus efficace.

La nature du litige

Thomson Reuters a intenté une action en justice contre Ross Intelligence, alléguant que cette dernière avait copié des headnotes et d’autres annotations éditoriales de Westlaw pour entraîner son IA, sans autorisation. Ces headnotes, qui synthétisent des décisions judiciaires, sont une valeur ajoutée importante de Westlaw. Ross Intelligence a contesté ces accusations en invoquant l’exception du fair use, estimant que son utilisation relevait d’un usage légitime et non d’une violation du droit d’auteur.

Les questions juridiques soulevées

Les allégations de contrefaçon de droit d’auteur

Thomson Reuters a soutenu que :

  • Les headnotes et annotations de Westlaw étaient protégées par le droit d’auteur en tant que créations originales.
  • Ross Intelligence avait copié ces contenus sans autorisation pour alimenter et entraîner son modèle d’IA.
  • L’acte de reproduction et d’exploitation de ces contenus ne relevait pas d’un usage transformatif et constituait donc une contrefaçon.

La défense du fair use

Ross Intelligence a avancé plusieurs arguments :

  • L’utilisation de ces données servait à développer une IA permettant une recherche juridique plus efficace, ce qui pourrait être considéré comme un usage transformatif.
  • L’entraînement de l’IA ne reproduisait pas les headnotes à l’identique, mais permettait d’en extraire des tendances et des concepts.
  • Le marché des services juridiques étant dominé par des acteurs comme Westlaw, restreindre l’accès à ces informations limiterait l’innovation et la concurrence.

Analyse et décision du tribunal

Évaluation des droits d’auteur

Le tribunal a examiné si les headnotes et annotations de Westlaw constituaient des œuvres protégées par le droit d’auteur. Il a été reconnu que ces résumés de jurisprudence n’étaient pas de simples retranscriptions, mais des créations originales nécessitant un travail éditorial substantiel.

Appréciation du fair use

Le tribunal a analysé les quatre critères du fair use aux États-Unis :

  1. Finalité et nature de l’utilisation : Ross Intelligence a prétendu que son utilisation était transformatrice, mais le tribunal a estimé que cette transformation n’était pas suffisante.
  2. Nature de l’œuvre protégée : Les headnotes sont des œuvres créatives et protégées.
  3. Quantité et importance de l’extrait utilisé : Ross Intelligence aurait utilisé une part significative des contenus protégés.
  4. Impact sur le marché : L’usage par Ross Intelligence pouvait nuire au modèle économique de Westlaw en permettant à d’autres acteurs d’exploiter des données protégées.

En conclusion, le tribunal a rejetté la défense de fair use, estimant que l’entraînement de l’IA sur des contenus protégés constituait bien une contrefaçon.

Implications pour l’intelligence artificielle et le droit d’auteur

Impact sur les pratiques d’entraînement des IA

Cette décision pourrait redéfinir les règles d’utilisation des œuvres protégées dans l’entraînement des IA, en particulier dans les secteurs où la donnée est essentielle, comme le droit, la finance ou la médecine. Les startups et entreprises développant des IA devront négocier des licences ou explorer des solutions basées sur des données libres de droits.

Considérations juridiques futures

Ce jugement s’inscrit dans une tendance plus large visant à clarifier les limites de l’utilisation des œuvres protégées dans l’IA. À l’avenir, il sera crucial pour les entreprises du secteur d’anticiper ces risques juridiques et d’adopter des stratégies conformes aux législations en vigueur.

Conclusion

L’affaire Thomson Reuters v. Ross Intelligence marque un tournant dans la reconnaissance du droit d’auteur face aux nouvelles technologies. En refusant l’exception du fair use, la décision protège les éditeurs de contenus et impose aux développeurs d’IA de revoir leurs pratiques d’acquisition de données. Pour les acteurs du droit et de l’intelligence artificielle, cette affaire constitue une mise en garde sur les risques liés à l’exploitation de données protégées.

Besoin de conseils d’experts en intelligence artificielle et propriété intellectuelle ? Le cabinet Dreyfus & Associés est spécialisé en droit de la propriété intellectuelle, notamment en matière de marques, de droits d’auteur et de questions juridiques liées à l’IA. Nos experts suivent de près les évolutions du droit en matière d’IA et de propriété intellectuelle !

Dreyfus & Associés collabore avec un réseau mondial d’avocats spécialisés propriété intellectuelle.

Rejoignez-nous sur les réseaux sociaux !


FAQ – Questions fréquentes

  1. Pourquoi l’entraînement d’une IA sur des contenus protégés peut-il poser problème ?
    L’utilisation d’œuvres protégées sans autorisation peut être considérée comme une contrefaçon, sauf si elle entre dans le cadre d’une exception légale comme le fair use.
  2. En quoi l’affaire Thomson Reuters v. Ross Intelligence est-elle importante ?
    Elle clarifie que l’entraînement d’une IA avec des données protégées peut constituer une violation du droit d’auteur, remettant en cause certaines pratiques courantes.
  3. Une IA peut-elle générer du contenu protégé sans être en infraction ?
    Cela dépend de la manière dont elle est entraînée et du niveau de reproduction des œuvres existantes.
  4. Quelles alternatives pour entraîner une IA légalement ?
    Utiliser des données en open source, sous licence ou négocier des accords d’exploitation avec les titulaires de droits.
  5. Cette décision s’applique-t-elle en Europe ?
    Non, mais elle pourrait influencer les débats sur l’application du droit d’auteur à l’intelligence artificielle au sein de l’Union européenne.
Read More

Derniers développements en matière d’IA générative et de droit d’auteur : Une analyse approfondie

L’évolution rapide de l’intelligence artificielle générative (IA) transforme profondément la création et l’exploitation des contenus, soulevant des questions complexes en matière de droit d’auteur. Cet article propose une synthèse complète des récentes actions en justice et initiatives législatives en lien avec l’IA générative et le droit d’auteur, en mettant en lumière les défis et opportunités dans ce paysage juridique en pleine mutation.

Actions en justice récentes aux États-Unis

Aux États-Unis, plusieurs recours ont été engagés à l’encontre de sociétés technologiques pour l’utilisation présumée d’œuvres protégées par le droit d’auteur dans l’entraînement de modèles d’IA générative.

Affaire Kadrey c. Meta

Dans cette action collective, les auteurs Richard Kadrey, Sarah Silverman et Christopher Golden accusent Meta Platforms Inc. d’avoir violé leurs droits d’auteur en utilisant leurs ouvrages pour entraîner son modèle d’IA, LLaMA (Large Language Model Meta AI).
Le 20 novembre 2023, le tribunal fédéral du district nord de Californie a rejeté plusieurs chefs de demande, notamment ceux fondés sur la création d’œuvres dérivées et la contrefaçon indirecte. Toutefois, le tribunal a jugé recevables les demandes fondées sur la suppression d’informations de gestion des droits d’auteur, au titre du Digital Millennium Copyright Act (DMCA), estimant que les demandeurs avaient démontré un préjudice suffisant pour fonder leur intérêt à agir au sens de l’article III de la Constitution.
Le 10 mars 2025, les plaignants ont déposé une requête en jugement partiel concernant la contrefaçon directe, faisant valoir que Meta ne pouvait se prévaloir de l’exception de fair use pour justifier l’acquisition présumée de « millions d’œuvres piratées » utilisées pour l’entraînement de son modèle.

Procédures contre OpenAI et Microsoft

En décembre 2023, le New York Times a assigné OpenAI et Microsoft, les accusant d’avoir entraîné leurs modèles d’IA sur les articles du journal sans autorisation, ce qui constituerait une violation des droits d’auteur.
Cette affaire illustre les tensions croissantes entre les créateurs de contenu et les développeurs d’IA concernant l’utilisation non autorisée d’œuvres protégées dans l’entraînement des modèles. En mars 2025, un juge fédéral a autorisé l’affaire à se poursuivre, rejetant certaines allégations mais maintenant les griefs centraux de contrefaçon de droit d’auteur.

Évolutions juridiques internationales

Les contentieux liés à l’IA générative et au droit d’auteur se multiplient également à l’échelle internationale.

Action en justice en France contre Meta

En France, trois associations représentant les auteurs et les éditeurs, le Syndicat National de l’Édition (SNE), la Société des Gens de Lettres (SGDL) et le Syndicat National des Auteurs et des Compositeurs (SNAC),  ont engagé une action contre Meta.
Elles reprochent à Meta d’avoir utilisé des œuvres protégées sans autorisation pour entraîner son modèle d’IA générative.
Il s’agit de la première action judiciaire de ce type en France, visant à faire respecter les droits d’auteur et à obtenir le retrait complet des bases de données utilisées pour l’entraînement des IA.

Initiatives législatives et réglementaires

Face à ces enjeux, plusieurs textes ont été proposés ou adoptés pour encadrer l’usage de l’IA générative.

États-Unis : Generative AI Copyright Disclosure Act

En avril 2024, le représentant américain Adam Schiff a présenté le Generative AI Copyright Disclosure Act.
Ce projet de loi impose aux entreprises de déclarer les œuvres protégées utilisées pour entraîner leurs systèmes d’IA générative, en adressant un avis au Copyright Office au moins 30 jours avant la mise à disposition d’un modèle (nouveau ou mis à jour).
Les sanctions en cas de non-respect débutent à 5 000 USD, sans plafond de pénalité prévu.

Union européenne : AI Act

Au sein de l’Union européenne, l’AI Act a été adopté par le Parlement européen le 13 mars 2024, à la suite d’un accord politique intervenu le 8 décembre 2023. Ce règlement inédit encadre l’usage des systèmes d’intelligence artificielle à différents niveaux de risque.

Concernant les modèles d’IA générative, le texte impose aux développeurs d’IA généralistes (notamment génératives) de fournir une documentation détaillée sur les données utilisées pour l’entraînement, précisant notamment si celles-ci incluent des œuvres protégées.
Une obligation de transparence vise ainsi à permettre aux titulaires de droits de connaître l’usage éventuel de leurs œuvres.

Par ailleurs, le règlement impose l’étiquetage clair des contenus générés par l’IA, afin de permettre aux consommateurs et aux ayants droit d’identifier ces productions non humaines.

Ces dispositions traduisent la volonté de l’Union européenne de concilier protection de la propriété intellectuelle et promotion de l’innovation technologique, dans un contexte de tensions croissantes entre créateurs et développeurs.

Conclusion

L’articulation entre IA générative et droit d’auteur constitue un domaine en pleine évolution, marqué par des actions judiciaires majeures et des initiatives législatives d’ampleur.
À mesure que les technologies progressent, il devient essentiel pour tous les acteurs — développeurs, créateurs, juristes — de rester informés et proactifs pour naviguer efficacement dans ce cadre juridique complexe.

Questions fréquentes (FAQs)

Qu’est-ce que l’IA générative ?
L’IA générative désigne des systèmes capables de produire du contenu (texte, image, musique, etc.) à partir de modèles entraînés sur de vastes ensembles de données existantes.

Pourquoi l’IA générative soulève-t-elle des préoccupations en matière de droit d’auteur ?
Les modèles d’IA sont souvent entraînés sur des données contenant des œuvres protégées. Leur utilisation sans autorisation peut constituer une violation des droits d’auteur.

Qu’est-ce que le Generative AI Copyright Disclosure Act ?
Il s’agit d’un projet de loi américain qui impose aux entreprises de révéler les œuvres protégées utilisées pour entraîner leurs IA génératives, afin d’accroître la transparence et de protéger les droits des créateurs.

Comment l’Union européenne traite-t-elle les enjeux IA et droit d’auteur ?
L’AI Act européen prévoit des obligations de transparence sur les données utilisées et impose un étiquetage des contenus générés par l’IA, afin de mieux encadrer l’usage des œuvres protégées.

Que doivent prendre en compte les entreprises développant des modèles d’IA générative ?
Elles doivent s’assurer de disposer des droits nécessaires ou de licences sur les données utilisées pour l’entraînement, et suivre l’évolution des exigences juridiques pour limiter les risques de contrefaçon.


Le cabinet Dreyfus est spécialisé en droit de la propriété intellectuelle et accompagne ses clients dans la compréhension et l’anticipation des problématiques juridiques liées à l’intelligence artificielle et au droit d’auteur.

Le cabinet Dreyfus et Associés est en partenariat avec un réseau mondial d’avocats spécialisés en Propriété Intellectuelle, offrant un accompagnement global à ses clients

Rejoignez-nous sur les réseaux sociaux !

Read More

Sony Computer Entertainment Europe Ltd v. Datel Design and Development Ltd (Case C-15923)

Le 17 octobre 2024, la Cour de Justice de l’Union Européenne (CJUE) a rendu un arrêt clé dans l’affaire Sony Computer Entertainment Europe Ltd contre Datel Design and Development Ltd (affaire C-159/23). Cette décision porte sur l’étendue de la protection des droits d’auteur pour les programmes informatiques en vertu de la directive 2009/24/CE, notamment en ce qui concerne les logiciels modifiant des données variables pendant l’exécution d’un programme, sans altérer le code source ou objet du programme.

Contexte de l’affaire

Sony, développeur et distributeur de consoles PlayStation et de jeux vidéo associés, a engagé une action en justice contre Datel, une société spécialisée dans les logiciels et dispositifs interagissant avec les consoles de jeux. Sony a identifié que Datel commercialisait des produits tels que le logiciel « Action Replay PSP » et le dispositif « TiltFX ». Ces produits permettaient aux utilisateurs de modifier le gameplay en débloquant des fonctionnalités ou en modifiant les contrôles, grâce à une exécution parallèle aux jeux Sony et à des modifications des données variables dans la mémoire vive de la console. Sony a soutenu que ces modifications constituaient une violation de ses droits exclusifs d’autoriser des altérations de ses programmes informatiques, tels que protégés par la directive 2009/24/CE.

Questions juridiques soumises à la CJUE : analyse et décision

Le Bundesgerichtshof (Cour fédérale de justice, Allemagne) a soumis deux questions principales à la CJUE :

  1. Champ de protection : La modification des variables transférées dans la mémoire vive d’un ordinateur par un programme protégé, sans altération de son code source ou objet, relève-t-elle de la protection prévue à l’article 1(1) à (3) de la directive 2009/24/CE ?
  2. Définition d’altération : Une telle modification constitue-t-elle une « altération » au sens de l’article 4(1)(b) de la directive, qui accorde au titulaire des droits d’auteur le droit exclusif d’autoriser ou d’interdire toute modification de son programme informatique ?

Dans son analyse, la CJUE s’est concentrée sur l’interprétation des « formes d’expression » d’un programme informatique protégées par l’article 1 de la directive 2009/24/CE. La Cour a souligné que la protection s’étend au code source et au code objet du programme, car ce sont ces expressions qui permettent la reproduction ou la création ultérieure du programme. À l’inverse, des éléments tels que les fonctionnalités, les langages de programmation et les formats de fichiers de données ne constituent pas des formes d’expression protégées.

La Cour a conclu que le contenu des données variables insérées par un programme dans la mémoire vive d’un ordinateur pendant son exécution ne relève pas de la protection conférée par la directive, à condition que ce contenu ne permette pas la reproduction ou la création ultérieure du programme. Par conséquent, la modification de ces variables sans altérer le code source ou objet ne constitue pas une violation des droits exclusifs du titulaire des droits d’auteur en vertu de l’article 4(1)(b).

Implications de la décision

Cet arrêt précise les limites de la protection des droits d’auteur pour les programmes informatiques au sein de l’UE, clarifiant que :

  • Données variables vs. code source : Les modifications des données variables pendant l’exécution d’un programme, sans impact sur le code source ou objet, échappent au champ de protection de la directive 2009/24/CE.
  • Modifications fonctionnelles : Les logiciels interagissant avec des programmes existants en modifiant des variables à l’exécution, sans altérer le code du programme, ne violent pas les droits exclusifs du titulaire du programme d’origine.

Cette décision a des répercussions importantes pour les développeurs de logiciels auxiliaires, tels que les outils d’amélioration de jeux ou les applications de personnalisation, en affirmant que certaines modifications au niveau de l’exécution sont permises par le droit d’auteur européen.

Conclusion

L’arrêt de la CJUE dans l’affaire C-159/23 offre des orientations essentielles sur l’interprétation de la protection des droits d’auteur pour les programmes informatiques, notamment en ce qui concerne la distinction entre les formes d’expression protégées et les modifications permises pendant l’exécution d’un programme. Cette clarification est cruciale pour les développeurs de logiciels et les titulaires de droits dans leur compréhension des paramètres juridiques de la modification des programmes et de l’étendue des droits de propriété intellectuelle dans l’Union Européenne.

Le Cabinet Dreyfus, nous mettons à votre disposition notre expertise dans tous les domaines de la propriété intellectuelle, y compris le droit d’auteur, afin de vous offrir le meilleur accompagnement et de garantir la protection de vos droits et de vos innovations.

Le cabinet Dreyfus collabore avec un réseau mondial d’avocats spécialisés en propriété intellectuelle.

Rejoignez-nous sur les réseaux sociaux !

LinkedIn  

Instagram

Read More

Tesla et l’EUIPO mettent un coup d’arrêt au « trolling » des marques !

Dans une décision récente, la division d’annulation de l’EUIPO (Office de l’Union européenne pour la propriété intellectuelle) a déclaré la marque européenne « TESLA », détenue depuis 2022 par Capella Eood, invalide pour cause de mauvaise foi. Cette décision marque une victoire majeure pour le constructeur automobile Tesla dans sa lutte contre les pratiques abusives de certains détenteurs de marques, souvent qualifiés de « trolls des marques ». Retour sur les éléments clés de cette affaire emblématique.

Contexte et enjeux de l’affaire

En 2022, Tesla a déposé une demande d’annulation de la marque « TESLA » enregistrée auprès de l’EUIPO par Capella Eood, une société associée à un individu connu pour ses pratiques de « trolling » en matière de marques. La demande d’annulation était fondée sur l’article 59(1)(b) du Règlement sur la marque de l’Union européenne (RMUE), qui permet d’invalider une marque si elle a été déposée de mauvaise foi.

Tesla a argué que Capella Eood utilisait des stratégies spéculatives pour enregistrer des marques dans le but de bloquer les opérations d’autres entreprises et d’extorquer des accords financiers. Les preuves fournies incluaient des exemples de sociétés fictives, des retards dans les procédures d’opposition et des transferts stratégiques de droits de marque.

De son côté, le détenteur de la marque a nié les accusations de mauvaise foi, qualifiant les arguments de Tesla de diffamatoires et prétendant que la marque avait été inspirée par des sources indépendantes et non liées aux activités de Tesla.

Critères analysés par l’EUIPO pour établir la mauvaise foi

Selon l’article 59(1)(b) RMUE, l’évaluation de la mauvaise foi repose sur l’intention du demandeur au moment du dépôt de la marque, en tenant compte des pratiques commerciales honnêtes. L’EUIPO a examiné cette intention à travers plusieurs critères clés, inspirés notamment des jurisprudences Sky and Others (C-371/18) et Koton (C-104/18 P).

  1. Motivations et contexte du dépôt

Le dépôt de la marque contestée a eu lieu peu de temps après que Tesla ait acquis une reconnaissance internationale, en particulier suite au succès de la Tesla Roadster. Cette proximité temporelle a indiqué que le détenteur de la marque était conscient de la notoriété croissante de Tesla. Les affirmations selon lesquelles la marque avait été inspirée par un article de journal ou un CD ont été jugées non crédibles, surtout étant donné que les produits ciblés – véhicules et accessoires – correspondaient directement à ceux de Tesla.

  1. Historique de pratiques spéculatives

Des preuves ont montré que le détenteur de la marque avait un historique de dépôts systématiques via des sociétés écrans dans différentes juridictions. Ces marques étaient souvent abandonnées ou retirées, révélant une stratégie d’exploitation abusive du système des marques de l’UE pour créer des positions de blocage à des fins financières.

  1. Tactiques dilatoires et absence d’utilisation effective

L’EUIPO a relevé des démarches dilatoires, comme des modifications incohérentes des descriptions de produits et services, visant à retarder les procédures d’opposition pendant près de 15 ans. Le détenteur n’a présenté aucune preuve d’une activité commerciale véritable associée à la marque, renforçant l’idée d’une stratégie purement obstructive.

  1. Connaissance des activités de Tesla

Les produits Tesla étaient déjà largement couverts par les médias en Autriche et ailleurs avant le dépôt de la marque contestée. Cette couverture médiatique, combinée aux autres preuves, a démontré que le détenteur de la marque était conscient des opérations de Tesla et cherchait à tirer parti de son succès prévu sur le marché européen.

  1. Violation des pratiques équitables

En concluant que la marque avait été déposée sans intention d’usage véritable et dans le but d’obstruer les dépôts légitimes, l’EUIPO a établi que les actions du détenteur étaient contraires aux principes de bonne foi et d’équité.

Répercussions de cette décision

Cette décision s’inscrit dans une jurisprudence croissante visant à réprimer le trolling des marques et à protéger la concurrence loyale. Elle renforce également les principes établis par les arrêts Sky and Others et Koton, qui définissent la mauvaise foi comme une intention contraire aux pratiques honnêtes au moment du dépôt.

Pour les entreprises, cette affaire souligne l’importance de surveiller les dépôts de marques susceptibles de bloquer leurs activités et d’agir rapidement pour contester les enregistrements abusifs. Elle met également en évidence le rôle essentiel des preuves – comme l’historique des dépôts et les comportements dilatoires – dans la démonstration de la mauvaise foi.

Conclusion

La décision de l’EUIPO dans l’affaire TESLA constitue une victoire importante pour la lutte contre les abus systématiques dans le domaine des marques. Elle rappelle que les pratiques commerciales doivent rester équitables et honnêtes, et que le système des marques ne doit pas être exploité à des fins spéculatives. Pour les entreprises comme Tesla, ces décisions permettent de protéger leurs investissements et leur réputation sur le marché européen. Les professionnels du droit des marques, comme le Cabinet Dreyfus, restent mobilisés pour accompagner leurs clients face à de telles pratiques.

Le cabinet Dreyfus collabore avec un réseau mondial d’avocats spécialisés en propriété intellectuelle.

Rejoignez-nous sur les réseaux sociaux !

LinkedIn  

Instagram

Read More

La directive NIS 2 : Vers une cybersécurité européenne renforcée et harmonisée

Une nouvelle directive au cœur des enjeux européens

La directive NIS 2, publiée le 27 décembre 2022 au Journal officiel de l’Union européenne, constitue une réponse ambitieuse à l’intensification des cybermenaces. Avec une échéance de transposition dans le droit national fixée au 17 octobre 2024, cette réglementation renforce et élargit le cadre établi par la première directive NIS, adoptée en 2016. Ce texte impose des exigences harmonisées, destinées à renforcer la sécurité des réseaux et des systèmes d’information critiques dans tous les États membres.

Contrairement à son prédécesseur, NIS 2 s’applique à un nombre considérablement accru d’entités et de secteurs d’activité, reflétant une reconnaissance croissante des risques posés par les attaques informatiques. Son ambition est de garantir une résilience accrue pour les infrastructures essentielles, tout en stimulant la compétitivité et la confiance des parties prenantes.

Les principaux objectifs de la directive NIS 2

La directive vise à protéger les secteurs stratégiques indispensables au bon fonctionnement de la société et de l’économie. Elle cible notamment des domaines tels que l’énergie, la santé, les transports ou encore les infrastructures numériques. En introduisant des exigences plus strictes, NIS 2 cherche à minimiser les perturbations potentielles causées par des cyberattaques.

Un des objectifs fondamentaux de la directive est d’uniformiser les pratiques entre les États membres, réduisant ainsi les disparités réglementaires et facilitant la conformité pour les entités opérant dans plusieurs pays. Cette harmonisation permet de créer un cadre juridique clair et cohérent, renforçant ainsi la coopération transfrontalière face aux menaces cyber.

Les obligations imposées par NIS 2

La directive distingue deux grandes catégories d’entités en fonction de leur importance stratégique : les entités essentielles (EE) et les entités importantes (EI). Cette différenciation repose sur des critères tels que la taille, le chiffre d’affaires et le rôle critique joué par l’entité dans son secteur. Les entités essentielles, en raison de leur impact potentiel, sont soumises à des obligations plus rigoureuses.

Conformément à NIS 2, les entités concernées doivent mettre en place des mesures juridiques, techniques et organisationnelles pour protéger leurs systèmes d’information. Cela inclut notamment l’analyse régulière des risques, la mise en œuvre de solutions adaptées et le déploiement de mécanismes de réponse rapide en cas d’incident. Les incidents ayant un impact significatif devront être déclarés à l’ANSSI, qui pourra engager des contrôles pour vérifier la conformité des entités.

En cas de non-respect des obligations, les entités s’exposent à des sanctions financières pouvant atteindre 2 % du chiffre d’affaires mondial pour les EE et 1,4 % pour les EI. Ces amendes, proportionnées à la gravité des manquements, visent à garantir une mise en œuvre stricte des mesures prévues par la directive.

Les secteurs concernés par NIS 2

La directive couvre un large éventail de secteurs, allant des infrastructures numériques et de la santé à la production alimentaire et aux services postaux. En élargissant son champ d’application, NIS 2 reconnaît la nature systémique des cyber-risques et la nécessité d’une approche globale pour protéger les services essentiels. Ce nouveau cadre s’applique également aux administrations publiques, reflétant leur rôle central dans la résilience nationale.

La transposition française de la directive NIS 2

La transposition de la directive NIS 2 en France s’inscrit dans le cadre du projet de loi sur la résilience des infrastructures critiques et le renforcement de la cybersécurité, présenté au Conseil des ministres le 15 octobre 2024. Ce texte, qui intègre également les règlements REC et DORA, vise à renforcer la sécurité des réseaux et des systèmes d’information essentiels pour les secteurs critiques et hautement critiques. La Commission Supérieure du Numérique et des Postes (CSNP) a joué un rôle actif en émettant des recommandations successives, notamment sur la clarification des secteurs concernés, l’échéance de mise en conformité fixée au 31 décembre 2027, et l’intégration de clauses d’adaptabilité aux avancées technologiques, comme l’intelligence artificielle. Une fois adopté par le Parlement, le projet sera complété par une vingtaine de décrets d’application, détaillant les obligations des entités concernées et finalisant les exigences de sécurité, notamment autour de la notion de Système d’Information Réglementé (SIR). Ce processus illustre l’ambition de la France de s’aligner sur les standards européens tout en tenant compte des spécificités nationales.

Le rôle central de l’ANSSI dans la mise en œuvre

L’ANSSI, en tant qu’autorité nationale de cybersécurité, occupe une position stratégique dans la mise en œuvre de la directive NIS 2. Chargée d’accompagner les entités assujetties, l’agence a privilégié une approche collaborative en impliquant des acteurs clés du secteur, tels que les fédérations professionnelles (UFE), les associations en cybersécurité (CLUSIF, CESIN) et des prestataires qualifiés (PASSI, PRIS, PDIS). Cette méthodologie participative s’est traduite par des consultations approfondies en 2023, portant sur le périmètre des entités concernées, les interactions avec l’ANSSI et les exigences de cybersécurité.

Pourquoi se préparer dès maintenant ?

La directive NIS 2 ne se limite pas à une simple obligation légale. Elle représente une opportunité stratégique pour les entreprises et les administrations. En renforçant leurs pratiques en matière de cybersécurité, les organisations peuvent non seulement se protéger contre les menaces croissantes, mais aussi améliorer leur compétitivité et renforcer la confiance de leurs partenaires et clients. Une approche proactive est essentielle pour transformer ces contraintes en avantage durable.

La directive NIS 2 établit un nouveau standard pour la cybersécurité en Europe. En renforçant les exigences et en élargissant le champ des entités concernées, elle cherche à protéger les infrastructures critiques face aux cybermenaces croissantes. Les entreprises et administrations françaises doivent dès à présent se préparer à ces changements pour garantir leur résilience et leur compétitivité dans un environnement de plus en plus connecté et interconnecté.

Nos experts sont à votre disposition pour vous guider dans cette transition et vous garantir une cybersécurité optimale. Le cabinet Dreyfus et Associés est en partenariat avec un réseau mondial d’avocats spécialisés en Propriété Intellectuelle.

 

Rejoignez-nous sur les réseaux sociaux !

LinkedIn 

Read More

La technologie blockchain : une révolution du droit de la preuve ?

Dans le domaine de la propriété intellectuelle, la question de la preuve est cruciale. Traditionnellement, l’horodatage électronique, comme l’enveloppe Soleau de l’INPI, offrait une première solution. Cependant, ces méthodes restent limitées par des cadres nationaux. La blockchain, quant à elle, se présente comme une alternative globale, fiable et accessible, pouvant devenir un standard international.

Fonctionnement de la preuve par blockchain 

La blockchain est une technologie de stockage et de transmission d’informations, caractérisée par sa décentralisation, sa transparence et sa sécurité. Contrairement aux systèmes centralisés, elle fonctionne sans autorité de contrôle unique. Chaque échange est enregistré dans un registre partagé, formant une chaîne d’informations infalsifiables. Les blockchains publiques sont accessibles à tous, semblables à un grand livre comptable inviolable, tandis que les blockchains privées restreignent l’accès à certains utilisateurs. Cette structure garantit que les données restent immuables et impossibles à modifier ou à détruire.

La preuve par blockchain fonctionne comme un grand registre, accessible et sécurisé, où chaque transaction est enregistrée sous forme de « blocs » liés les uns aux autres. Chaque nouveau bloc contient une empreinte unique du bloc précédent, formant ainsi une chaîne difficile à modifier. La blockchain est dupliquée en milliers de copies à travers le monde, rendant toute modification non autorisée quasiment impossible.

La sécurité du système est assurée par des mineurs qui, en échange de récompenses monétaires, valident les transactions en résolvant des calculs complexes. Ce mécanisme garantit l’intégrité et la fiabilité des informations.

Mode d’emploi pour prouver un document 

  1. Création de l’empreinte : Le document est converti en une suite unique de chiffres et de lettres (une empreinte).
  2. Enregistrement dans la blockchain : Cette empreinte est inscrite dans la blockchain par une transaction financière minime, rendant l’enregistrement permanent.
  3. Vérification : Pour prouver l’authenticité d’un document, il suffit de comparer son empreinte actuelle à celle enregistrée dans la blockchain. Si les deux correspondent, le document est prouvé authentique.

Solutions traditionnelles vs. Blockchain

Les solutions de preuve traditionnelles, bien qu’efficaces, sont souvent limitées à des juridictions nationales, générant des obstacles à l’international. Les procédures d’huissier ou l’enveloppe Soleau ne garantissent pas une protection universelle. L’expérience utilisateur, de plus, n’est pas optimale, freinant leur utilisation par les entreprises.

La blockchain s’impose par sa nature open source, offrant un horodatage universel basé sur des règles mathématiques. Elle abaisse les barrières à l’entrée, permettant une standardisation technologique. Les utilisateurs bénéficient d’une preuve immuable et traçable, largement reconnue.

 Cas d’usage variés 

  • La protection des créations

Protection au fil de l’eau : La blockchain permet d’horodater chaque version d’une création (ex. mode, joaillerie), offrant une couverture continue, même pour des œuvres inachevées.

Protection de l’avant-brevet : Les phases de R&D bénéficient de la blockchain pour prouver l’antériorité d’inventions non brevetées, sans nécessairement passer par le dépôt de brevet.

Traçabilité des contributeurs : Dans des projets collaboratifs, la blockchain permet d’identifier précisément les contributions, minimisant les conflits sur les droits d’auteur.

  • La signature électronique

Introduite en 2000 en France et régie par l’article 1367 du Code civil, la signature électronique est standardisée au niveau européen grâce au Règlement eIDAS. Celui-ci définit trois types de signatures : simple, avancée, et qualifiée, cette dernière ayant la même valeur juridique qu’une signature manuscrite.

La blockchain joue un rôle croissant dans ce domaine, notamment pour garantir l’intégrité, la transparence, et la sécurité des signatures électroniques sans faire appel à un tiers de confiance. Elle permet de répondre aux critères des signatures simples et avancées, en assurant un lien unique avec le signataire et en garantissant l’authenticité des documents. Moins coûteuse et adaptée à une gestion décentralisée, la blockchain pourrait s’intégrer dans les dispositifs de signature électronique qualifiée, surtout avec l’adoption du Règlement eIDAS 2 en 2024.

Limites actuelles et perspectives futures

En France, la reconnaissance légale de la preuve par blockchain est principalement limitée au secteur financier. L’ordonnance n° 2016-520 a autorisé l’utilisation de la blockchain pour l’enregistrement et le transfert d’actifs financiers non cotés, tels que les minibons. L’ordonnance n° 2017-1674 et le décret n° 2018-1226 ont ensuite étendu l’utilisation d’un dispositif d’enregistrement électronique partagé pour les titres financiers. La loi PACTE de 2019 a renforcé cette reconnaissance en autorisant l’enregistrement et la circulation d’actifs financiers sur la blockchain, notamment les actions et obligations.

Au niveau européen, Le règlement 910/2014/UE, en vigueur depuis le 1er juillet 2016, valide les signatures et horodatages électroniques, incluant implicitement ceux de la blockchain, comme preuves admissibles devant les tribunaux, leur attribuant une valeur juridique similaire aux signatures manuscrites.

Le droit français repose sur un système mixte de preuve : liberté de la preuve par principe et preuve légale par exception, appliquée principalement aux actes juridiques. Les preuves parfaites incluent l’écrit (authentique ou sous seing privé), l’aveu judiciaire, le serment décisoire, et la copie fiable. Les preuves imparfaites, dont fait partie la blockchain, sont soumises à l’appréciation du juge et n’ont pas une force probante prédéfinie par la loi.

C’est pourquoi il est conseillé d’établir un constat d’huissier. Bien que la vérification d’une empreinte numérique dans la blockchain soit techniquement simple et réalisable via des outils open source, le juge ne peut pas effectuer cette manipulation lui-même. L’huissier, en tant qu’auxiliaire de justice, réalise ce constat et fournit ainsi une preuve technique au juge, facilitant l’usage de la preuve blockchain dans le cadre d’une procédure judiciaire.

Conclusion

Bien que la blockchain soit encore considérée comme une preuve imparfaite en droit français, sa reconnaissance s’accroît. Elle pourrait, dans un futur proche, devenir un standard mondial, surpassant les méthodes traditionnelles.

La blockchain redéfinit le cadre de la preuve en propriété intellectuelle, offrant une solution adaptée aux défis d’un marché internationalisé.

 

Le cabinet Dreyfus vous assure un accompagnement expert dans toutes les étapes de protection de vos créations. Notre maîtrise des subtilités légales et notre expérience sur les marchés mondiaux vous garantissent une protection optimale, adaptée à vos besoins spécifiques.

Le cabinet Dreyfus et Associés est en partenariat avec un réseau mondial d’avocats spécialisés en Propriété Intellectuelle.

Rejoignez-nous sur les réseaux sociaux !

Instagram

LinkedIn

 

Read More

L’impact de l’AI Act sur les entreprises multinationales

Le développement rapide des technologies d’intelligence artificielle (IA) a créé la nécessité d’une réglementation claire et harmonisée pour garantir une utilisation éthique, la sécurité et l’innovation. Le règlement sur l’IA de l’Union européenne (règlement européen sur l’IA) est sur le point de devenir le premier cadre juridique complet au monde régissant l’IA, impactant non seulement les entreprises européennes, mais aussi les industries mondiales opérant au sein du marché de l’UE ou interagissant avec celui-ci. Cet article explore les principaux aspects du règlement européen sur l’IA et ses implications de grande envergure pour les opérations commerciales mondiales.

Aperçu du règlement européen sur l’IA

Champ d’application du règlement sur l’IA. Le règlement européen sur l’IA classe les systèmes d’IA en différents niveaux de risque : inacceptable, élevé, limité, faible et minimal, chacun nécessitant un degré de contrôle réglementaire différent. La législation cible principalement les systèmes d’IA à haut risque qui ont un impact significatif sur la sécurité, les droits et les libertés des personnes. Cela inclut les applications de l’IA dans des secteurs tels que la santé, les transports et les infrastructures critiques.

Exigences de conformité pour les systèmes d’IA à haut risque. Dans le cadre du règlement sur l’IA, les entreprises doivent se conformer à des exigences strictes pour les systèmes d’IA à haut risque. Cela inclut la réalisation d’évaluations de conformité, la mise en place de systèmes robustes de gestion des risques, ainsi que la transparence et la responsabilité tout au long du cycle de vie de l’IA. Les entreprises doivent également se préparer à des contrôles réguliers et des audits, qui seront appliqués par des autorités désignées dans les États membres de l’UE.

 

Implications pour les entreprises mondiales

Impact direct sur les développeurs et fournisseurs d’IA. Toute entreprise développant ou fournissant des systèmes d’IA, qu’elle soit basée dans l’UE ou en dehors, doit se conformer au règlement européen sur l’IA si ses produits sont utilisés au sein de l’Union. Cette portée extraterritoriale de la réglementation signifie que les entreprises mondiales, en particulier celles des industries technologiques, doivent prioriser la conformité légale pour éviter des sanctions, y compris des amendes pouvant atteindre 6 % de leur chiffre d’affaires mondial annuel.

Coûts accrus de la conformité et de l’innovation. La nécessité de réaliser des évaluations de conformité des systèmes d’IA, de mettre en place des politiques de gouvernance des données et des cadres de gestion des risques peut considérablement augmenter les coûts opérationnels. Pour les entreprises non européennes, naviguer dans le paysage complexe de la conformité peut nécessiter de faire appel à des experts locaux en droit et en technologie, ce qui alourdit encore les coûts. Cependant, ces mesures de conformité encouragent également un développement responsable de l’IA et renforcent la confiance des consommateurs, ouvrant potentiellement de nouveaux marchés pour les entreprises capables de démontrer leur adhésion à des normes éthiques en matière d’IA.

 

Considérations stratégiques pour les entreprises

Atténuation des risques et responsabilité. Pour les entreprises opérant à l’échelle mondiale, comprendre les risques de responsabilité liés à la mise en œuvre de l’IA dans le cadre du règlement européen est crucial. Les entreprises doivent être proactives dans l’établissement de processus de gestion des risques complets pour atténuer les risques juridiques et financiers liés aux systèmes d’IA jugés à haut risque. La conformité peut contribuer à réduire l’exposition à la responsabilité et à renforcer la sécurité opérationnelle.

Avantages compétitifs d’une conformité précoce. Bien que la conformité au règlement européen sur l’IA puisse sembler contraignante au départ, les entreprises qui investissent dans des efforts de conformité précoce peuvent en tirer des avantages compétitifs significatifs. Cela inclut une meilleure confiance des consommateurs, un meilleur positionnement sur le marché européen et une réduction des risques de sanctions réglementaires. De plus, les entreprises qui adhèrent aux principes du règlement sont susceptibles de voir leur réputation de marque s’améliorer à l’échelle mondiale, alors que l’IA éthique devient une préoccupation croissante pour les consommateurs et les régulateurs du monde entier.

 

Influence mondiale

Influence sur d’autres juridictions. Alors que le règlement européen sur l’IA établit un précédent mondial, d’autres juridictions, dont les États-Unis, la Chine et le Royaume-Uni, devraient suivre avec leurs propres réglementations sur l’IA. Cet effet d’entraînement pourrait conduire à une harmonisation mondiale des lois sur l’IA, obligeant les entreprises à adapter leurs stratégies en matière d’IA dans plusieurs marchés simultanément.

Le rôle de l’IA dans le commerce international. L’IA est devenue essentielle pour de nombreuses industries, et sa réglementation affectera les accords commerciaux internationaux, en particulier ceux impliquant des produits et services numériques. Les entreprises mondiales doivent se préparer à voir apparaître des clauses relatives à l’IA dans les négociations commerciales, la conformité au règlement européen sur l’IA devenant un élément critique des futurs accords internationaux.

 

Conclusion

Le règlement européen sur l’IA représente un effort réglementaire historique qui aura des répercussions significatives pour les entreprises mondiales. Bien que les exigences de conformité soient rigoureuses, elles offrent des opportunités aux entreprises de se positionner en leaders dans le domaine de l’IA en adoptant des pratiques éthiques. La clé pour les entreprises est de considérer ce changement réglementaire non pas comme un fardeau, mais comme une voie pour renforcer la confiance et garantir une croissance durable dans le monde en constante évolution de l’intelligence artificielle.

 

Notre expertise en propriété intellectuelle nous permet d’accompagner les entreprises dans la gestion des défis réglementaires liés à l’intelligence artificielle. Le règlement européen sur l’IA impose des exigences strictes en matière de conformité, de transparence et de gestion des risques pour les systèmes à haut risque. Grâce à notre connaissance approfondie des enjeux de propriété intellectuelle et des technologies émergentes, nous aidons nos clients à naviguer dans ce cadre complexe tout en protégeant leurs innovations et en assurant leur conformité aux nouvelles normes.

 

Le cabinet Dreyfus et Associés est en partenariat avec un réseau mondial d’avocats spécialisés en Propriété Intellectuelle

Rejoignez-nous sur les réseaux sociaux !

Instagram

Linkedin

 

Read More