Comment la course aux profits s'est imposée dans l'intelligence artificielle
Ilya Sutskever n’a pas tardé à rebondir. À peine un mois après sa démission, l’ancien directeur scientifique d’OpenAI vient de lancer une nouvelle start-up spécialisée dans l’intelligence artificielle générative. Sa mission se retrouve dans son nom: Safe Superintelligence. Autrement dit, développer une “super-intelligence sûre”, explique son fondateur, accompagné dans ce projet par l’ancien responsable de l’IA chez Apple. “C’est notre unique objectif”, assure-t-il. Et de promettre de ne pas céder à des “pressions commerciales de court terme”, en multipliant les lancements de produits pour satisfaire les intérêts financiers des actionnaires. En quelque sorte, il souhaite mener à bien la mission que s’était initialement fixée le concepteur de ChatGPT, désormais davantage focalisé vers la recherche de profits.
Les profits avant tout – Safe Superintelligence fait presque office d’exception. Dans le secteur de l’IA, “la sécurité a été reléguée au second plan”, dénonce Jan Leike, qui vient également de quitter OpenAI. Même chose pour la recherche fondamentale, elle aussi supplantée par les immenses enjeux financiers. L’entraînement des derniers modèles nécessite en effet une importante puissance de calcul. Cela se traduit par des investissements massifs, pour acheter des cartes graphiques ou utiliser une plateforme de cloud. Et par des levées de fonds se chiffrant en centaines de millions, voire en milliards de dollars. Sur un marché très concurrentiel, c’est une course de vitesse qui s’est donc engagée, avec en ligne de mire des retombées commerciales potentiellement énormes, tant l’IA pourrait révolutionner de nombreux métiers.
Chez Google, la recherche sacrifiée
Débuts chez Google – Le parcours d’Ilya Sutskever témoigne parfaitement de ces évolutions. Pendant ses études, il a côtoyé deux chercheurs vedettes de l’intelligence artificielle: le britannique Geoffrey Hinton à l’université de Toronto, puis son compatriote Andrew Ng à Stanford. Il commence véritablement sa carrière en 2013 chez Google Brain, un laboratoire en IA lancé deux ans plus tôt par le moteur de recherche. Pendant quatre ans, il participe à plusieurs projets de recherche marquants. Il collabore notamment avec les équipes du laboratoire britannique DeepMind, racheté par Google en 2014, pour concevoir AlphaGo, une IA qui a battu des champions du jeu de go. Il a aussi contribué au développement de TensorFlow, une bibliothèque open source de référence pour l’apprentissage automatique (machine learning).
Articles scientifiques – Ces projets symbolisent deux piliers de l’approche de Google. D’une part, la recherche fondamentale, qui n’est pas destinée à déboucher sur un produit commercial. Ensuite, la recherche ouverte, partagée avec d’autres chercheurs. Mais le spectaculaire lancement de ChatGPT a précipité des changements radicaux. L’an passé, la société de Mountain View a décidé de limiter la publication d’articles scientifiques. Avant de partager ses dernières avancées technologiques, elle souhaite d’abord les intégrer dans ses services pour ne pas aider ses concurrents. Google en a déjà fait l’expérience. Ses travaux sur le modèle de réseau de neurones Transformer, publiés en 2017, ont en effet joué un rôle primordial dans l’émergence de GPT, le grand modèle de langage développé par OpenAI sur lequel s’appuie ChatGPT.
Nouveau cap – Début 2023, le géant américain a aussi choisi de fusionner les équipes de DeepMind et de Brain, invitées à travailler main dans la main après des années de rivalités internes. Ces chercheurs ont bâti leur réputation sur des projets de recherche fondamentale, dont une partie seulement servait ensuite à améliorer les produits maison. Mais cette approche était devenue intenable, alors que l’IA générative pourrait radicalement changer la manière d’accéder à l’information. Google a donc fixé un nouveau cap: priorité au développement de Gemini, son principal modèle. Certes, le groupe n’a pas totalement abandonné la recherche, mais des chercheurs expliquent qu’il est désormais plus difficile d’obtenir des capacités de calcul ou qu’ils sont invités à réfléchir à une application commerciale, rapporte Bloomberg.
OpenAI change de statut juridique
But non lucratif – En 2015, Ilya Sutskever quitte Google. Il fait partie de la petite équipe à l’origine d’OpenAI. Ce qui n’est encore qu’un laboratoire de recherche, soutenu par quelques grands noms de la Silicon Valley, ambitionne alors de développer une IA devant bénéficier à l’humanité, sans être dictée par une logique de profit. Mais cette mission change dès 2019, lorsque la structure abandonne son but non lucratif. Et encore plus quand elle fait entrer Microsoft dans son capital, dans le cadre d’une opération complexe, d’un montant d’un milliard de dollars, incluant investissement, crédits cloud et partenariat commercial. Cette alliance est entérinée début 2023. Le groupe de Redmond investit alors plus de dix milliards, donnant à la start-up, dont il devient le premier actionnaire, les moyens de ses ambitions.
Deux approches – Dans ce nouvel OpenAI, Ilya Sutskever incarne une approche plus prudente du développement de l’IA, souhaitant s’assurer que la technologie reste sous contrôle. Mais sa vision se heurte à celle de Sam Altman, le directeur général, qui veut, lui, avancer le plus vite possible. L’enjeu est technologique, pour conserver l’avance prise sur les concurrents. Il est aussi financier, entre les investissements de Microsoft et une valorisation en forte hausse. Ce conflit rampant éclate finalement au grand jour fin 2023, quand le patron d’OpenAI est brutalement écarté par le conseil d’administration, toujours animé par la mission initiale de l’entreprise. Sam Altman est réinstallé à son poste seulement cinq jours plus tard. Il n’a depuis cessé d’affirmer son contrôle. Au détriment des impératifs sur la sécurité de l’IA.
Statut juridique – Cette reprise en main peut être illustrée par la dissolution, en mai, de l’équipe de “superalignement”, dirigée par Ilya Sutskever et chargée de vérifier que l’IA reste bien “alignée” avec les intérêts de l’humanité. Celle-ci a été remplacée par un nouveau comité temporaire, dirigé par… Sam Altman. Selon The Information, le patron d’OpenAI envisagerait par ailleurs une nouvelle modification de la structure juridique. Depuis 2019, la société dispose d’un statut dit à “but lucratif plafonné”, qui limite les gains possibles de ses actionnaires. Elle reste aussi, sur le papier, sous le contrôle d’un conseil d’administration qui a conservé son but non lucratif. Sam Altman souhaiterait désormais se défaire de cette supervision. Et également adopter un nouveau statut qui ne restreint plus les profits.
Ilya Sutskever entretient le flou
Entrée en Bourse – Au cours des prochains mois, OpenAI pourrait ainsi devenir une “public benefit corporation”, une entreprise à but lucratif qui œuvre aussi pour le bien de la société. Ce statut a déjà été adopté par Anthropic, connue pour son chatbot Claude, et par xAI, la start-up d’Elon Musk. Il lui permettrait de ne pas totalement se renier: la start-up n’aurait pas pour obligation légale d’uniquement maximiser la création de valeur pour ses actionnaires. Elle pourrait donc continuer à “s’assurer que l’IA générale (une IA capable d’apprendre seule, NDLR) bénéficie à toute l’humanité”, même si cela se traduit par des profits moins élevés, comme l’écrit-elle encore dans sa mission d’entreprise. Elle n’aura cependant aucune obligation de poursuivre cet objectif. Surtout en cas d’une probable introduction en Bourse…
Investisseurs inconnus – Ilya Sutskever, lui, n’a pas précisé le statut juridique de Safe Superintelligence. Ni même l’identité des investisseurs qui ont participé au premier tour de table, dont le montant n’a pas été indiqué. Pour pouvoir mener à bien sa mission, il aura besoin de liquidités importantes, pour attirer les meilleurs spécialistes du secteur mais surtout pour mettre la main sur la puissance de calcul nécessaire au développement d’une “super-intelligence”. Ce besoin sera d’autant plus important que sa structure ne pourra pas compter sur des sources de recettes liées à des produits commerciaux – puisqu’elle promet de ne pas en lancer avant plusieurs années. L’ancien d’OpenAI assure pourtant pouvoir résister aux pressions de l’argent. Et remettre la recherche et la sécurité au centre des préoccupations.
Pour aller plus loin:
– Après l’euphorie, les craintes d’une bulle autour de l’IA générative
– La face cachée d’OpenAI, rattrapé par de multiples polémiques
Crédits photo: Stable Diffusion – Google – Microsoft – Anthropic