Google défie Nvidia
Et aussi: L'appareil IA d'OpenAI en 2027 ?
Avec ses derniers modèles d’IA, Google démontre ses progrès dans les puces
L’information se cache dans la documentation technique, mais elle est significative. Pour concevoir Gemini 3 Pro, Google n’a pas eu recours aux cartes graphiques (GPU) de Nvidia, pourtant réputées comme incontournables. Son dernier modèle d’intelligence artificielle générative, dévoilé la semaine dernière, “a été entraîné exclusivement sur nos TPU”, nous a confirmé le moteur de recherche. De même, l’inférence – le processus de génération des réponses – s’appuie “à l’heure actuelle” uniquement sur ces puces maison.
À vrai dire, les précédentes versions de Gemini avaient déjà été entraînées sur des TPU. Mais l’information était passée sous les radars. La raison est simple: ces modèles étaient alors jugés largement inférieurs à leurs rivaux GPT, développés par OpenAI. Ce n’est plus le cas. Non seulement Gemini 3 Pro obtient de meilleurs résultats que GPT 5.1 sur divers tests, mais les retours des utilisateurs sont aussi très positifs. Sans oublier les performances de son générateur d’images, baptisé Nano Banana, lui aussi entraîné sur des TPU.
Besoins internes
Les TPU, pour Tensor Processing Unit, fêtent cette année leur dixième anniversaire. Ils ont été conçus à l’origine par Google pour répondre à des besoins internes de puissance de calcul, liés au développement du machine learning – des algorithmes capables d’apprendre par eux-mêmes, qui ont progressivement infusé les produits maison, du moteur de recherche à YouTube, dans la seconde moitié des années 2010. Avec l’essor de l’IA générative, ces puces ont été repensées pour l’entraînement et l’inférence des nouveaux modèles.
Google ne commercialise pas ses TPU, qui restent donc exclusivement déployés dans ses propres data centers. Depuis 2018, le groupe de Mountain View les met également à disposition des clients de sa plateforme de cloud. Pendant longtemps, leur seule présence constituait un argument de vente face à Amazon Web Services et Microsoft Azure, renforçant l’image de Google comme leader sur le machine learning. Mais avec l’arrivée de ChatGPT, l’attention s’est davantage portée sur les GPU de Nvidia, pour lesquels la demande a explosé.
Performances proches de Nvidia
Dans le sillage de Google, les autres géants technologiques américains ont également conçu leurs propres puces d’IA: Maia chez Microsoft, MTIA chez Meta et Inferentia et Trainium chez Amazon. De son côté, OpenAI vient de s’associer avec Broadcom – qui a co-développé les TPU – pour suivre la même voie. L’objectif principal n’est pas tant de réduire la dépendance à Nvidia que de bénéficier de puces optimisées pour les besoins internes, tout en pouvant piloter directement les améliorations jugées prioritaires.
En 2022, les TPU de Google affichaient encore environ une génération de retard sur les GPU de Nvidia. Depuis, la société a nettement accéléré la cadence. En trois ans, elle a ainsi lancé trois nouvelles puces, multipliant à chaque fois les performances. Sur le papier, le dernier modèle, baptisé Ironwood, affiche ainsi des capacités assez proches des accélérateurs Blackwell, en termes de puissance et de mémoire. Si Google ne le précise pas, il est probable que Gemini 3 Pro a été entraîné, au moins en partie, sur ce modèle de puces.
Des TPU bientôt en vente ?
Les progrès des TPU représentent d’abord une immense opportunité commerciale pour Google Cloud, dont la croissance dépasse déjà celle d’AWS et d’Azure. Fin octobre, le groupe a officialisé un partenariat avec Anthropic, permettant au rival d’OpenAI d’utiliser jusqu’à un million de TPU pour entraîner ses modèles. Selon The Information, Google serait également en négociations avec Meta. La maison mère de Facebook, qui s’appuie jusqu’à présent sur ses propres infrastructures, envisage de louer des TPU dès l’an prochain.
Mais les dirigeants de Google voient encore plus grand, poursuit le site spécialisé. Ils cherchent désormais à vendre directement les TPU. Meta pourrait ainsi être l’un des premiers clients, déployant les puces de son rival dans ses data centers à partir de 2027. Des discussions seraient également en cours avec plusieurs institutions financières. Google estimerait pouvoir capter 10% d’un marché aujourd’hui largement dominé par Nvidia – un potentiel commercial qui se chiffre en dizaines de milliards de dollars par an.
Pour aller plus loin:
– L’amortissement des puces d’IA, une bombe à retardement ?
– Les résultats record de Nvidia apaisent les craintes de bulle
PARTENAIRE
Maîtrisez vos encaissements de bout en bout avec nos solutions adaptées: liens de paiement, Tap to Pay sur iPhone, terminaux de paiement. Obtenez vos fonds sous un jour ouvrable et bénéficiez de la réconciliation automatique avec votre compte pro. Le tout à des conditions tarifaires avantageuses, dès 0,8% de frais par transaction.
OpenAI promet de lancer son premier appareil d’IA “dans moins de deux ans”
Six mois après avoir annoncé le rachat de la start-up fondée par Jony Ive, OpenAI dispose désormais d’un premier prototype de son appareil pensé pour l’ère de l’intelligence artificielle générative. Et censé remplacer, à terme, les smartphones comme plateforme dominante. “Simple, beau et ludique”, a laconiquement résumé Sam Altman, le patron du créateur de ChatGPT, interrogé aux côtés de l’ex-designer vedette d’Apple par Laurene Powell Jobs – la veuve de l’ancien patron du groupe à la pomme, dont le fonds est actionnaire d’OpenAI.
Lancement en 2027 ?
En mai, OpenAI a déboursé pas moins de 6,5 milliards de dollars pour mettre la main sur io, lancée l’an passé par Jony Ive et d’anciens dirigeants d’Apple. Une somme astronomique pour une start-up qui ne propose encore aucun produit. Mais l’opération illustre les convictions de Sam Altman, déjà impliqué dans le projet. Selon lui, l’IA va provoquer un changement radical des usages, déplaçant les utilisateurs des smartphones vers de nouvelles plateformes. “Cette technologie mérite tellement mieux”, assurait-il alors.
Selon Jony Ive, l’appareil pourrait être commercialisé dans “moins de deux ans”. D’après le Financial Times, il serait dépourvu d’écran et “à peu près” de la taille d’un smartphone. Il pourrait être porté par l’utilisateur ou posé sur une table ou un bureau. Il serait aussi équipé d’un microphone, d’un haut-parleur et d’une ou plusieurs caméras pour permettre à ses utilisateurs d’interagir avec ChatGPT. À terme, Sam Altman espère lancer “une famille de terminaux” conçus spécifiquement pour l’IA.
Crédit photos: Nvidia – Emerson Collective




