Menace judiciaire sur l'IA
Et aussi: L'Europe fait un pas en arrière dans la régulation de l'IA
Cette édition est présentée par Mon Petit Placement, la fintech lyonnaise qui rend l’investissement accessible au plus grand nombre.
Pourquoi la défaite judiciaire d'une start-up d’IA pourrait avoir de lourdes conséquences sur OpenAI
C’est en apparence une affaire judiciaire sans grand intérêt, lancée en 2020 contre une entreprise qui a depuis fermé ses portes. Pourtant son verdict pourrait avoir des répercussions majeures pour les spécialistes de l’intelligence artificielle générative. À commencer par OpenAI, visé par plusieurs plaintes. Mardi, un tribunal américain a donné raison au groupe Thomson Reuters face à la start-up Ross Intelligence. Celle-ci a été reconnue coupable d’avoir utilisé des contenus publiés par une filiale du groupe canadien afin d’entraîner une IA permettant de chercher des informations juridiques. Le juge chargé du dossier n’a pas retenu la notion de fair use, avancée par les avocats de la défense. Or, cette disposition qui autorise un “usage raisonnable” d’œuvres protégées par le droit d’auteur, est aussi citée par OpenAI et d’autres.
Vide juridique – Depuis les débuts fracassants de ChatGPT, les procédures judiciaires se multiplient. Trois affaires sont particulièrement emblématiques: la plainte déposée par la banque d’images Getty Images contre la start-up britannique Stability AI, celle du New York Times contre OpenAI, et celle de la RIAA, qui représente l’industrie américaine du disque, contre les outils de création de chansons Udio et Suno. Ces entreprises sont accusées d’avoir utilisé, respectivement, des photos, des textes et des chansons pour entraîner leurs modèles sans autorisation ni rémunération. Les enjeux financiers sont importants: la loi américaine prévoit jusqu’à 150.000 dollars de dédommagement par infraction constatée. Tous ces dossiers font face à un vide juridique: les lois actuelles ne sont pas adaptées à l’émergence de l’IA générative.
IA pas générative – Le verdict contre Ross Intelligence est l’un des premiers à être prononcé par la justice américaine. Il est cependant encore trop tôt pour savoir s’il fera jurisprudence. Dans son verdict, le magistrat souligne notamment que l’IA conçue par la start-up n’était pas générative. “Lorsqu’un utilisateur saisissait une question juridique, Ross fournissait des avis judiciaires pertinents déjà rédigés”, récupérés auprès de la filiale de Thomson Reuters, explique-t-il. Ainsi, ces réponses n’apportaient aucune “valeur transformative” pouvant justifier d’invoquer la notion de fair use. Cet élément constitue donc une différence fondamentale entre cette affaire et les plaintes déposées contre les spécialistes de l’IA générative, dont les modèles ne se contentent pas de répéter les textes sur lesquels ils ont été entraînés.
Valeur des données – En revanche, deux points pourraient jouer en leur défaveur. Le juge a d’abord estimé que l’usage raisonnable ne pouvait pas être invoqué quand les contenus utilisés servaient à concevoir un “substitut sur le marché”. Les plaignants des autres dossiers pourront ainsi souligner que les services d’IA proposent des alternatives, permettant de créer une image au lieu d’en acheter une ou de s’informer sans aller sur des sites. Par ailleurs, le magistrat a considéré qu’il fallait aussi prendre en compte “l’effet sur un potentiel marché pour les données d’entraînement des IA”. Or, le fair use peut empêcher les ayants droit de les monétiser auprès des concepteurs de modèles. De fait, OpenAI et d’autres ont noué de nombreux accords de licence, notamment avec des groupes de presse, reconnaissant implicitement la valeur commerciale de ces données.
Pour aller plus loin:
– Pourquoi les procédures judiciaires se multiplient contre OpenAI
– Face à l’IA, l’industrie du disque ne sait pas sur quel pied danser
Avec Plan B, faites fructifier votre épargne sans stress
Avec le portefeuille Plan B de Mon Petit Placement, investissez sereinement tout en sécurisant votre avenir. Conçu pour les épargnants recherchant la stabilité, ce portefeuille repose exclusivement sur un fonds en euros, offrant une garantie totale sur votre capital* et un rendement stable.
En 2024, Plan B a affiché un rendement net de frais de gestion de 3,6 %**, dépassant le taux du Livret A. Accessible dès 300 euros, ce portefeuille vous offre une flexibilité totale: vos fonds restent disponibles à tout moment, sans aucune pénalité.
Au-delà de la performance, Plan B incarne des valeurs fortes avec 59 % des obligations qui sont orientés vers des projets verts, sociaux ou durables, faisant de votre épargne un levier d’impact positif.
Avec Mon Petit Placement, vous bénéficiez également d’une application intuitive pour suivre et gérer vos placements facilement, ainsi que d’un accompagnement par des conseillers disponibles 7j/7.
Obtenez 50 euros offerts à l’ouverture de votre compte, en vous inscrivant avec le code CAFETECH50.
*Les fonds en euros affichent une garantie en capital. Autrement dit, on ne peut pas perdre sa mise initiale hors frais de gestion inhérent à cette typologie de contrat.
**Le rendement de Plan B est exprimé net de frais de gestion et brut de prélèvements sociaux et fiscaux. Ce rendement est donné à titre indicatif et ne garantit pas le taux futur du fonds euros du contrat Mon Placement Vie.
L'Europe abandonne un deuxième projet de réglementation de l'IA
Le ton avait été donné lors du sommet sur l’IA, qui s’est tenu à Paris. Il s’est confirmé mardi soir à Bruxelles. En toute discrétion, dans les annexes de son programme de travail pour 2025, la Commission européenne a acté le retrait de son projet de directive sur la responsabilité en matière d’intelligence artificielle. “Aucun accord en vue”, se contente-t-elle d’expliquer. En clair: elle estime que le texte n’aurait pas pu être adopté par le Parlement ou qu’il n’aurait pas pu échapper à une minorité de blocage au Conseil. Un veto probablement mené par la France, qui s’oppose à une régulation trop importante du secteur, comme l’assène régulièrement Emmanuel Macron. Cette décision “reflète la reconnaissance croissante que l’UE ne peut rester compétitive que si son cadre réglementaire ne devient pas un patchwork inapplicable”, se réjouit le lobby CCIA.
Course de vitesse – Le retrait de la directive intervient après un sommet sur l’IA marqué par des plans d’investissements massifs dans les infrastructures (109 milliards d’euros en France, 200 milliards pour l’Union européenne). Mais aussi par le peu d’intérêt porté aux risques liés au développement rapide de cette technologie. La déclaration finale évoque à peine le sujet, quand le texte issu du premier sommet, qui s’est tenu au Royaume-Uni en juin 2023, tournait autour des risques. “Une opportunité ratée”, regrette ainsi Dario Amodei, le fondateur et patron d’Anthropic. Cela concrétise une évolution majeure. La course de vitesse dans l’IA ne concerne plus seulement les entreprises du secteur, en compétition pour grappiller le plus gros du marché. Elle touche aussi les pays dans un contexte géopolitique moins propice à la coopération.
Les États-Unis menacent – L’Europe n’est pas la seule à faire marche arrière. Selon Politico, le Royaume-Uni a décidé de reporter une consultation sur un projet de loi devant transposer les engagements pris lors du sommet de 2023. En outre, le texte devra être allégé de sa mesure phare, qui permettait à un organisme de contrôle d’avoir accès aux tests de sécurité menés avant le déploiement d’un modèle. “Il y a une véritable nervosité face à l’administration américaine”, explique une source citée par Politico. Mardi, à Paris, le vice-président JD Vance a ainsi mis en garde l’Europe contre une régulation qui pourrait “étouffer” l’innovation, notamment américaine, dans l’IA. “L’Amérique n’acceptera pas cela”, a-t-il menacé. Les États-Unis n’ont d’ailleurs pas signé la déclaration finale du sommet parisien. Ils ont été suivis par… le Royaume-Uni.
AI Act – L’an dernier, l’Union européenne a laborieusement adopté l’AI Act, la première régulation du secteur dans le monde, malgré l’opposition de la France qui n’avait réussi qu’à obtenir quelques concessions. Le texte, partiellement entré en vigueur, vise en particulier les modèles présentant des “risques systémiques”. Ceux-ci auront notamment l’obligation de mener des études d’impact sur les risques et sur les mécanismes mis en place pour les limiter. La directive sur la responsabilité en matière d’intelligence artificielle devait introduire des règles spécifiques aux dommages causés par des systèmes d’IA. En particulier une “présomption de causalité”, dispensant les victimes de la charge de la preuve. Bruxelles assure désormais évaluer “si une autre proposition doit être présentée ou si un autre type d’approche doit être choisi”.
Pour aller plus loin:
– Comment le sommet sur l’IA s’est transformé en opération de promotion
– La France échoue à bloquer le projet européen de régulation de l’IA générative
Crédit photos: Unsplash / Wesley Tingey – Inflection AI