Levée de fonds record pour la start-up de Mira Murati, l'ex-employée vedette d'OpenAI
Thinking Machines n’a ni produit, ni feuille de route, ni véritable site Web. Pourtant, à peine quatre mois après son lancement, la start-up américaine, que Meta et Apple ont récemment pensé à racheter, n’a éprouvé aucune difficulté pour lever deux milliards de dollars – le double de la somme initiale espérée – auprès de grands fonds d’investissement de la Silicon Valley, rapportent le Financial Times et Bloomberg. Et elle est déjà valorisée à dix milliards. Cette opération est inédite par ses montants, même dans le secteur de l’intelligence artificielle générative sur lequel les financements coulent à flots. Elle repose principalement sur l’identité de sa fondatrice: Mira Murati, l’ancienne directrice de la technologie d’OpenAI, propulsée au rang de vedette de l’IA par le lancement spectaculaire de ChatGPT.
CEO par intérim – Après avoir commencé sa carrière chez Tesla, Mira Murati a rejoint OpenAI en 2018. Elle a notamment supervisé la conception des grands modèles de langage derrière ChatGPT, et des modèles de diffusion alimentant le générateur d’image Dall-E. Fin 2023, elle fait partie du petit groupe de responsables de l’entreprise qui alerte le conseil d’administration, remettant en cause la stratégie de Sam Altman, son fondateur et patron, accusé de négliger les risques liés au développement à marche forcée de l’IA. Ce signalement débouche alors sur l’éviction abrupte du dirigeant. Mira Murati est même nommée directrice générale par intérim. Mais elle se désolidarise très rapidement, réclamant publiquement le retour de Sam Altman. Elle est ainsi épargnée par les représailles. Elle quitte OpenAI en septembre 2024 pour mener sa “propre exploration”.
Aucune info – Pour lancer Thinking Machines, Mira Murati a su attirer d’autres anciens du concepteur de ChatGPT, en particulier John Schulman, l’un des cofondateurs, qu’elle a nommé directeur scientifique. La start-up indique compter une quarantaine d’employés, tous passés par des grands noms de l’IA. Elle entretient cependant le mystère sur ses travaux. Elle explique simplement vouloir rendre les “systèmes d’IA plus largement compréhensibles, personnalisables et polyvalents”. Selon le Financial Times, les documents présentés aux investisseurs pour sa levée ne contenaient aucune information sur ses futurs produits ou sur ses objectifs financiers. Le site The Information explique cependant que Thinking Machines ambitionne de concevoir des outils d’IA sur mesure pour les entreprises, en utilisant la technique d’entraînement popularisée par la start-up chinoise DeepSeek.
Comme SSI – Mira Murati n’est pas la seule ancienne d’OpenAI à attirer les investisseurs. Avant elle, Ilya Sutskever avait déjà capitalisé sur son statut d’ex-directeur scientifique de la société. Sa nouvelle start-up, baptisée Safe Superintelligence, a levé 3 milliards de dollars en un an – notamment auprès du fonds Andreessen Horowitz, qui fait aussi partie des investisseurs de Thinking Machines. En avril, elle a été valorisée à 32 milliards de dollars. C’est déjà la moitié d’Anthropic, fondée en 2021, elle aussi par des anciens d’OpenAI, et qui réalise surtout un chiffre d’affaires de 3 milliards en rythme annualisé. SSI n’a toujours pas dévoilé le moindre service. Et ses dirigeants assurent qu’ils n’ont pas l’intention de lancer de produits commerciaux à court terme, afin de se concentrer uniquement sur le développement d’une “super-intelligence sûre”.
Pour aller plus loin:
– Safe Superintelligence lève un milliard de dollars pour son IA “sûre”
– Pourquoi les relations entre OpenAI et Microsoft n’en finissent plus de s’envenimer
| UN MESSAGE DE CANAL+ |
Ce que l’IA ne pourra jamais ressentir
L'intelligence artificielle peut analyser chaque scène, chaque mot, chaque mouvement de caméra. Elle peut reconnaître les émotions… mais elle ne les ressent pas. Elle observe. Sans frisson, sans larmes, sans rire.
C’est le résultat d’une expérience menée par CANAL+. Pendant quatre semaines, une IA a regardé des films, des séries et des documentaires. Résultat ? Des émotions perçues, identifiées... mais pas ressenties.
À l’ère des algorithmes sont au centre de toutes les discussions, CANAL+ défend la création humaine, la force du récit, la puissance de l’émotion… Celles qui nous font vibrer, nous bouleversent ou nous font rire.
Grâce à Anthropic, l'IA remporte une bataille judiciaire majeure... sur le papier
Le jugement a le mérite de poser de premières bases pour une potentielle jurisprudence sur l’entraînement de l’intelligence artificielle générative. Mais il ne satisfait probablement personne. Ni les start-up du secteur ni les ayants droit qui les poursuivent pour violation du droit d’auteur. Mardi, un juge californien n’a accordé qu’une victoire très partielle à Anthropic, qui était poursuivie par trois écrivains américains. Il a estimé que l’utilisation de leurs livres pour entraîner le grand modèle de langage Claude s’inscrivait bien dans le cadre du fair use – une notion qui permet un “usage raisonnable” d’œuvres protégées. Il a cependant conclu que la start-up n’avait pas le droit de pirater environ sept millions de livres. Un deuxième procès est ainsi prévu en décembre sur cette question. Celui-ci pourrait déboucher sur une gigantesque amende.
“Valeur transformative” – Cette affaire est la première jugée aux États-Unis – un autre procès est en cours au Royaume-Uni entre le générateur d’images Stability AI et la banque de photos Getty Images. D’autres suivront, notamment les plaintes du New York Times et de l’Authors Guild, qui regroupe plus de 14.000 auteurs, contre OpenAI. Ces dossiers tournent autour de l’interprétation du fair use. Et plus particulièrement du concept de “valeur transformative”. Les sociétés d’IA estiment être protégées, car leurs modèles ne se contentent pas de copier les œuvres sur lesquelles ils ont été entraînés. Ils s’en inspirent pour créer quelque chose de nouveau. C’est la première fois que la justice valide cet argumentaire. Les modèles de langage d’Anthropic n’ont pas reproduit “les éléments créatifs” ni “le style expressif” des plaignants, justifie le juge.
1.000 milliards de dollars – Le magistrat n’a cependant pas validé l’utilisation de trois bibliothèques numériques de livres piratés dans la phase d’entraînement. “Un vol”, estime-t-il. La start-up semblait d’ailleurs bien consciente du problème. En 2024, elle a recruté l’ancien responsable du projet Google Books. Puis, elle a acheté des millions de livres d’occasion pour les scanner. Depuis, elle assure ne plus se servir des exemplaires piratés – qu’elle n’a pourtant pas effacés. Si le juge estime que cette nouvelle méthode est conforme au fair use, il souligne aussi qu’elle “ne l’exonère pas de sa responsabilité”. Les conséquences financières pourraient être colossales: la loi américaine prévoit jusqu’à 150.000 dollars de dédommagement par infraction. Théoriquement, Anthropic risque ainsi une amende pouvant dépasser les 1.000 milliards de dollars.
Une victoire… et une défaite – Sur le papier, ce jugement représente une victoire majeure pour les groupes d’IA, car il valide leur ligne de défense centrée sur le fair use, reconnaissant qu’il n’est pas illégal d’utiliser des œuvres protégées pour l’entraînement des modèles. Il est ainsi probable qu’OpenAI et les autres s’en servent dans leurs procédures. En réalité, le verdict constitue aussi une défaite potentiellement coûteuse. Il affirme en effet que les œuvres utilisées pendant l’entraînement doivent être légalement achetées. Or, le secteur s’est bâti, au moins à ses débuts, sur des processus sauvages. Comme Anthropic, OpenAI et Meta sont soupçonnés d’avoir utilisé des livres piratés. Stability, aussi poursuivi aux États-Unis, a utilisé les photos de Getty sans autorisation. Les start-up Udio et Suno ont fait de même avec des milliers de chansons.
“Substitut sur le marché” – En outre, deux éléments pourraient être différents dans les autres affaires. D’une part, la plainte contre Anthropic s’est concentrée seulement sur l’entraînement. D’autres plaignants pourraient se focaliser sur les contenus créés par des IA, à l’image de la procédure tout juste lancée par Disney et Universal contre le générateur d’images Midjourney. D’autre part, un juge américain a récemment estimé que la notion d’usage raisonnable ne pouvait pas être invoquée quand l’utilisation d’œuvres protégées a permis de concevoir un “substitut sur le marché” aux services proposés par les ayants droit. Dans certaines affaires, les plaignants pourront ainsi mettre en avant que les entreprises d’IA offrent des alternatives, permettant de créer une image au lieu d’en acheter une ou de s’informer sans aller consulter un site de presse.
Pour aller plus loin:
– Au procès de Stability AI, l’IA générative sur le banc des accusés
– Face à OpenAI, Anthropic continue de lever des milliards de dollars
Crédit photos: X (Mira Murati) – Anthropic