Comment Apple a raté le virage de l'intelligence artificielle générative
Tim Cook n’a pas perdu de temps. Quelques jours après le report officiel du lancement du nouveau Siri, le directeur général d’Apple a procédé la semaine dernière à une réorganisation interne. Le projet a été retiré à John Giannandrea, le chef de l’intelligence artificielle du groupe à la pomme, rapporte l’agence Bloomberg. Il a été confié à Mike Rockwell, qui dirigeait la division dédiée au casque de réalité augmentée Vision Pro. Le responsable rendra compte directement à Craig Federighi, le grand patron des logiciels chez Apple, qui ne supervisait jusqu’à présent pas la refonte de Siri. Annoncée en juin, celle-ci devait permettre à l’assistant vocal de rentrer dans l’ère de l’IA générative. Initialement attendue en avril, sa sortie n’interviendra pas avant l’automne. Elle pourrait même être encore retardée si Apple décide de repartir d’une feuille blanche.
Retard au démarrage – Ancien responsable de l’IA chez Google, John Giannandrea avait été débauché en 2018 pour permettre à la société de Cupertino de prendre le virage du machine learning – des algorithmes capables d’apprendre seuls, pour reconnaître des chats sur une photo ou pour suggérer une réponse à un e-mail. Mais le lancement spectaculaire de ChatGPT a rebattu toutes les cartes. Si ses dirigeants s’en défendent, Apple semble ne pas avoir anticipé les conséquences de l’essor de l’IA générative, accumulant donc du retard sur OpenAI, Google ou Meta. Mike Rockwell présente un profil très différent, celui d’un ingénieur spécialisé dans le hardware, sans véritable expérience dans l’IA. Il a cependant la réputation de pouvoir mener des projets complexes, à l’image du Vision Pro, prouesse technologique à défaut d’être un succès commercial majeur.
Propres modèles – Sous pression pour démontrer sa capacité à suivre la cadence, Apple a dévoilé le nouveau Siri en juin, lors de sa conférence WWDC. En réalité, les fonctionnalités présentées n’étaient pas opérationnelles. Neuf mois plus tard, elles ne le sont toujours pas. L’assistant devait notamment être capable de chercher dans les informations personnelles pour répondre à des questions précises. Cela “implique un immense travail d’ingénierie”, souligne l’analyste Benedict Evans. Et le groupe s’est rendu la tâche encore plus complexe. Au lieu d’utiliser des modèles de langage existants, comme GPT d’OpenAI ou Gemini de Google, il a préféré développer les siens. Cela devait lui permettre de mieux contrôler l’expérience utilisateur et d’éviter de rémunérer un partenaire. Mais concevoir des modèles est une tâche particulièrement longue et difficile.
Moins de puissance – Pour ne rien arranger, Apple s’est imposé une deuxième contrainte: le nouveau Siri doit tourner en local, c’est-à-dire en utilisant le processeur de l’iPhone sans aller chercher du calcul supplémentaire dans le cloud. L’intérêt est double: l’assistant peut fonctionner hors connexion et il ne nécessite pas une immense infrastructure informatique. La contrepartie, c’est que la puissance à disposition du modèle est beaucoup moins importante, limitant sa faculté à gérer des requêtes complexes. Pour l’instant, le report de Siri est davantage un désaveu d’image qu’un problème commercial. “Personne ne propose ce qu’Apple a promis, même pas Google”, note Benedict Evans. Mais le retard pris aujourd’hui pourrait s’accumuler. Contrairement à l’époque du machine learning, celui-ci serait alors beaucoup plus visible pour les utilisateurs.
Pour aller plus loin:
– Pourquoi les ventes d’iPhone continuent de baisser
– Amazon mise sur l’IA générative pour relancer son assistant Alexa
Une première plainte contre Apple après le report du nouveau Siri
Ce n’était qu’une question de temps. La semaine dernière, une première plainte a été déposée contre Apple, accusé de publicité mensongère sur les derniers iPhone. Les plaignants lui reprochent d’avoir communiqué autour des fonctionnalités du nouveau Siri, dont le lancement a été repoussé. Ces derniers mois, le groupe à la pomme a fortement insisté sur l’arrivée de l’intelligence artificielle sur l’iPhone, notamment dans l’espoir de convaincre ses clients à changer de smartphone par anticipation. Plus encore que la démonstration réalisée en juin lors de sa conférence WWDC ou en septembre lors de la présentation des iPhone 16, c’est une publicité diffusée aux États-Unis qui pourrait poser problème – la vidéo vient d’ailleurs d’être retirée de YouTube. La communication de la marque “a suscité un enthousiasme sans précédent sur le marché, même pour Apple”, assure le cabinet d’avocats à l’origine de la plainte, qui espère obtenir la qualification d’action en nom collectif (class action). Et elle “a amené les consommateurs à croire qu’ils achetaient un appareil doté de fonctionnalités inexistantes ou présentées de manière trompeuse”.
Pour aller plus loin:
– En difficulté dans l’IA, Apple repousse le lancement du nouveau Siri
– Au Royaume-Uni, Apple affronte une première class action à haut risque
Pour lancer son assistant d'IA, Meta cède devant les Cnils européennes
Meta a fini par se plier aux exigences européennes. Cette semaine, la société dirigée par Mark Zuckerberg va en effet déployer son assistant d’IA sur le continent, neuf mois après y avoir renoncé en raison d’un différend avec les autorités de protection de données personnelles. Pour le contourner, elle a dû renoncer à son projet initial, qui prévoyait d’entraîner ses grands modèles de langage Llama avec les messages et les photos publiées par ses utilisateurs. “Cela a pris plus de temps que nous l’aurions souhaité”, explique-t-elle, évoquant un “système réglementaire complexe”. Ce lancement n’est cependant que partiel: une partie des fonctionnalités, comme la possibilité de créer des images, ne seront pas disponibles. Meta promet cependant qu’il ne s’agit que d’une “première étape” et assure viser la “parité avec les États-Unis”.
700 millions d’utilisateurs – Baptisé Meta AI, l’assistant est disponible sur les quatre principales applications du groupe: Facebook, Messenger, Instagram et WhatsApp. Il est possible d’interagir directement avec lui, mais aussi dans les discussions avec des amis. Il est capable de répondre à des questions, de retoucher des photos ou encore de traduire automatiquement des vidéos. Meta AI s’appuie sur le dernier modèle multimodal Llama. Il peut ainsi aussi bien comprendre et générer du texte, de l’audio ou des images. Lancé il y a un an et demi aux États-Unis, il compterait plus de 700 millions d’utilisateurs actifs par mois, davantage que ChatGPT. Selon CNBC, le service va avoir le droit à sa propre application. Et une version payante va être lancée. L’ajout de publicités a également été évoqué par les responsables de Meta.
Consentement – L’an passé, le réseau social avait repoussé le lancement de son assistant en Europe. Il mettait alors en avant les demandes de la DPC, la Cnil irlandaise, son autorité de référence sur le continent dans le cadre du Règlement général sur la protection des données (RGPD). Sous la pression de ses homologues européennes, celle-ci lui avait alors interdit d’utiliser les messages, les commentaires et les photos postés sur ses plateformes pour entraîner ses modèles. La raison: la société américaine ne souhaitait pas demander le consentement des utilisateurs, leur laissant simplement la possibilité de refuser en remplissant un formulaire en ligne – à condition toutefois de fournir une justification jugée recevable. Une pratique “clairement contraire au RGPD”, dénonçait l’activiste autrichien Max Schrems, qui avait décidé de porter plainte.
Llama aussi – Meta assurait ainsi ne pas pouvoir offrir mieux qu’une “expérience de deuxième classe” à ses utilisateurs européens, préférant annuler le déploiement de Meta AI. “Si nous n’entraînons pas nos modèles sur le contenu public que les Européens partagent sur nos services alors les fonctionnalités d’IA qu’ils alimentent ne comprendront pas avec précision les langues régionales, les cultures ou les sujets qui font réagir”, expliquait l’entreprise – un problème qui visiblement n’existe plus… Dans la foulée, elle avait annoncé que la prochaine version multimodale de Llama ne serait pas lancée sur le continent – la version textuelle, elle, est accessible. Même chose pour ses lunettes connectées: les fonctionnalités multimodales, permettant aux utilisateurs de demander des informations sur ce qu’ils voient, ne sont pas disponibles en Europe.
Pour aller plus loin:
– L’IA, le nouveau pari de Mark Zuckerberg
– Les Cnils européennes s’opposent à l’abonnement payant de Meta
Crédit photos: Apple - Meta