Et quels projets Apple a-t-il avec l’intelligence artificielle ?

Chargement du lecteur

En septembre dernier, le site d’actualité technologique L’information a révélé qu’Apple investissait « des millions de dollars par jour » dans l’intelligence artificielle dans le but d’accélérer le développement de chatbots (comme ChatGPT) et d’autres outils de génération (ou d’édition) d’images et de vidéos. Apple a créé une division interne spécifique qui comprend seize personnes, dont plusieurs anciens employés de Google, dirigée par John Giannandrea, également ancien de Google, qui a été embauché en 2018 par Apple pour améliorer Siri, l’assistant vocal de l’entreprise.

Toutefois, mis à part les investissements, Apple ne semble pas avoir adopté de stratégie précise en matière d’IA, alors que la plupart des grandes entreprises technologiques ont bougé depuis un certain temps : Microsoft a une alliance étroite avec OpenAI ; Meta intègre des services d’IA dans plusieurs de ses produits ; Amazon investit « profondément dans le secteur », selon son PDG Andy Jassy ; et Google a longtemps été considérée comme l’entreprise la plus avant-gardiste du secteur (bien qu’elle ait été surprise par le succès de ChatGPT).

En mars Bloomberg a révélé qu’Apple aurait des « négociations ouvertes » pour utiliser Gemini – l’intelligence artificielle de Google – dans les prochains iPhones, et envisagerait également d’utiliser ChatGPT. Une décision similaire serait nouvelle pour Apple, qui a toujours préféré développer ses propres logiciels et construire des environnements fermés et bien protégés. À cet égard, la société développe son propre grand modèle de langage (Large Language Model, ou LLM), appelé Ajax GPT. Ajax a été créé pour un usage interne chez Apple et est toujours en développement : toujours en deuxième position Bloombergest plus puissant que GPT-3.5, le modèle de langage sur lequel était basée la version initiale de ChatGPT (OpenAI a depuis publié GPT-4, considéré comme une avancée majeure par rapport à GPT-3.5).

La stratégie d’Apple en matière d’IA sera probablement clarifiée lors de la WWDC, sa conférence annuelle des développeurs en juin prochain. Tim Cook lui-même, PDG de l’entreprise, a récemment déclaré qu’il considérait l’IA générative « comme une opportunité fondamentale pour nos produits » et a assuré qu’Apple en annoncerait davantage « dans les semaines à venir ».

– Lire aussi : L’engouement pour l’intelligence artificielle s’essouffle un peu

Le retard perçu par Apple dans l’adoption de l’IA est en partie lié à l’accent mis par l’entreprise sur la protection des données de ses utilisateurs, en particulier contrairement à Android, qu’Apple a qualifié de « énorme dispositif de suivi ». Apple a même interdit à ses employés d’utiliser ChatGPT (et le service Copilot de Microsoft) et une décision similaire a également été prise par Verizon, Samsung, Bank of America, Deutsche Bank et Goldman Sachs, entre autres, car les conditions d’utilisation de ChatGPT stipulent clairement ces invites, c’est-à-dire les requêtes des utilisateurs, peuvent être utilisées pour « entraîner » les modèles linguistiques d’OpenAI (sauf si l’utilisateur refuse ce point en se désinscrivant). Le risque est que les employés de ces entreprises discutent de problèmes professionnels avec le chatbot, révélant ainsi des secrets d’entreprise à OpenAI.

L’attention à la vie privée chère à Apple ne va cependant pas bien avec le fonctionnement de l’intelligence artificielle générative, qui, du moins à ce stade de son développement technologique, nécessite que chaque demande soit traitée à distance, sur un serveur d’une entreprise, et pas à l’intérieur du dispositif de démarrage. Cela implique le transfert d’une grande partie des données personnelles de l’utilisateur de l’appareil vers un serveur externe, très probablement exploité par une société autre qu’Apple, et augmente le risque pour la vie privée des utilisateurs, un point sur lequel Apple insiste depuis des années.

Toutes les IA génératives évoquées jusqu’à présent reposent en fait sur de grands modèles linguistiques, qui, comme leur nom l’indique, sont très « lourds » et nécessitent une infrastructure considérable pour fonctionner. Le développement de l’IA générative a en effet mis en évidence l’importance des infrastructures technologiques dans la production de chatbots et de services similaires. Cela est particulièrement vrai pour les GPU (unités de traitement graphique), un type de processeur largement utilisé dans la formation des modèles de langage ; parmi tous les GPU produits par Nvidia, qui est devenue l’année dernière l’une des sociétés les plus discutées au monde.

– Lire aussi : Le formidable succès boursier de Nvidia

Selon de nombreux analystes, Apple souhaite donc se concentrer sur des modèles de langage plus petits, capables de fonctionner entièrement au sein d’un appareil. À cet égard, en mars dernier, elle a acquis Darwin AI, une startup canadienne qui développe des technologies pour rendre l’IA « plus petite et plus rapide ». En avril, il a ensuite présenté OpenELM (« Open-source Efficient Language Models »), un groupe de huit petits modèles de langage open source, conçus pour fonctionner entièrement au sein d’un appareil. Il s’agit de modèles expérimentaux qui sont principalement utilisés par Apple pour comprendre si le concept derrière ces modèles est viable et de quelle manière. Au vu de ces initiatives, les négociations avec OpenAI et Google apparaissent comme des remèdes provisoires, en attendant que les petits modèles soient suffisamment puissants et fiables.

Pour y parvenir, Apple investit massivement dans la recherche, comme le démontrent les nombreux brevets déposés par l’entreprise, que le site Le bord analysé. Dans l’un d’entre eux, on tente de résoudre le problème en utilisant des mémoires SSD au lieu de RAM pour contenir les informations relatives à un modèle linguistique : de cette manière, les modèles fonctionnent plus rapidement et plus efficacement, car ils « utilisent l’espace de stockage » plus bon marché et disponible sur l’appareil. Les chercheurs d’Apple ont également créé un système, appelé EELBERT, capable de compresser un grand modèle de langage dans un espace beaucoup plus petit sans pertes de performances excessives. Le modèle de langage BERT de Google a par exemple été réduit 15 fois avec une réduction qualitative de 4% (mais avec quelques problèmes de latence, terme utilisé pour désigner le temps mis par les données pour transiter sur un réseau, et donc le délai de communication) .

Cependant, toutes les IA ne sont pas faites pour la conversation. Ces dernières années, des modèles de smartphones comme le Samsung Galaxy S20 ou les Pixel 8 et 8 Pro se sont distingués par leur capacité à modifier même radicalement les photographies, en découpant ou en supprimant des éléments ou en changeant les couleurs. L’un des produits développés par Apple fonctionne comme un générateur d’images (similaire à DALL-E ou Midjourney) où les utilisateurs peuvent modifier le contenu produit sans avoir besoin d’écrire d’autres invites. L’un des documents produits par l’entreprise décrit également la possibilité d’utiliser des invites écrites pour modifier les photographies prises par les utilisateurs, en demandant à l’IA de “changer la couleur du ciel” ou de “rendre mon visage moins étrange”, par exemple. Apple semble également vouloir appliquer l’IA à l’application Health – pour analyser les nombreuses données biométriques des utilisateurs dont elle dispose, également grâce à l’Apple Watch – et à Apple Music, en développant un système pour séparer les différentes pistes qui composent une chanson.

– Lire aussi : Cette photo est-elle une vraie photo ?

Cependant, le centre des activités d’Apple en matière d’IA reste Siri, grâce également à des innovations telles que STEER (Semantic Turn Extension-Expansion Recognition), un système qui aide l’assistant vocal à gérer une série de questions, en reconnaissant quand l’utilisateur demande des éclaircissements sur une question. déjà demandé ou lorsque vous en demandez un nouveau. En parlant de Siri, Apple a été la première grande entreprise à lancer un assistant vocal, en février 2010, même si les attentes initiales n’ont pas été satisfaites depuis. Siri a été l’un des derniers projets gérés par Steve Jobs, co-fondateur et PDG d’Apple jusqu’en 2011, peu avant sa mort la même année, mais ses avancées ont été immédiatement décevantes. Déjà en 2012, environ deux ans après le lancement de Siri, certains employés d’Apple se plaignaient de l’état du produit, affirmant que Jobs « serait devenu fou » s’il avait vu les progrès limités réalisés par l’assistant vocal.

Cela pourrait donc être l’occasion idéale pour perfectionner et enrichir le service, en le dotant de modèles linguistiques capables de générer des réponses beaucoup plus complètes et sophistiquées. Après tout, Siri est née en tant que startup et a été rachetée par Apple en 2010, à la demande de Jobs. Dans une interview à l’époque, le journaliste Walt Mossberg a interrogé Jobs sur Siri, qu’il a décrit comme un service de recherche sur le Web. “Non, ce n’est pas dans le secteur de la recherche”, l’a corrigé Jobs, “c’est dans le domaine de l’intelligence artificielle.”

PREV Beaucoup de nouveautés pour ho.mobile : doublez la bande passante pour les offres 4G et la 5G et l’eSIM arrivent
NEXT TCL Smart TV 250 euros de réduction sur AMAZON : offre folle aujourd’hui seulement