fermer
Intelligence Artificielle

Apple se tourne vers l’IA exécutée sur le matériel avec le « LLM in a Flash »

dea450ff 40c4 485d aa6d 775e469528c4
Apple se tourne vers l’IA exécutée sur le matériel avec le « LLM in a Flash »

Apple a été pris un peu au dépourvu lorsque la technologie de l’IA générative a commencé à prendre son essor. En effet, dans le monde de l’intelligence artificielle et des grands modèles de langage, Apple n’a pas été massive dans ce qu’elle a à offrir, en particulier parce que l’entreprise n’a pas surfé sur la vague comme l’ont fait ses concurrents, Google et Microsoft.

Dans sa dernière étude, Apple a souligné que l’objectif de son IA est de l’exécuter directement sur le matériel, en particulier sur les iPhone, et non depuis le cloud comme l’ont fait d’autres entreprises. En effet, les chercheurs en intelligence artificielle d’Apple affirment avoir fait une percée significative dans l’utilisation des Large Language Model (LLM) sur les iPhone et autres appareils Apple à faible mémoire, en introduisant une technique ingénieuse de mémoire flash.

Les chercheurs d’Apple ont publié une nouvelle étude qui laisse entrevoir l’avenir de l’entreprise de Cupertino dans les développements de l’intelligence artificielle dans le monde, centrée sur l’idéologie de la faire fonctionner sur le matériel et non sur le cloud. Cette récente publication de Hugging Face a rendu la recherche célèbre, la plateforme étant connue pour présenter les travaux des chercheurs en IA, et il s’agit du deuxième article d’Apple sur l’IA générative.

La recherche intitulée « LLM in a flash: Efficient Large Language Model Inference with Limited Memory » détaille l’accent mis sur les appareils matériels pour exécuter les développements de l’IA, en se concentrant sur une nouvelle approche des modèles de grands langages sur les appareils. « Notre intégration de la prise en compte de la rareté, du chargement adapté au contexte et d’une conception axée sur le matériel ouvre la voie à une inférence efficace des LLM sur des appareils à mémoire limitée », ont déclaré les chercheurs.

Jusqu’à cette avancée, il était considéré comme impossible de faire fonctionner des LLM sur des appareils à mémoire limitée, car les LLM nécessitent une grande quantité de mémoire vive pour stocker les données et les processus gourmands en mémoire. Pour remédier à cette situation, les chercheurs d’Apple ont mis au point une technologie permettant de stocker les données sur la mémoire flash, la mémoire secondaire utilisée pour stocker les images, les documents et les applications.

Siri bénéficiera-t-il du meilleur de l’IA d’Apple pour le matériel ?

Si cette évolution se concrétise, on ne sait pas si Apple se concentrera sur Siri, qui est le visage de son IA pour les iPhone.

En développant un modèle de coût d’inférence qui s’aligne sur ces contraintes matérielles, elle a introduit deux techniques innovantes : le « windowing » et le « regroupement lignes-colonnes ». Ces méthodes contribuent collectivement à une réduction significative de la charge de données et à une augmentation de l’efficacité de l’utilisation de la mémoire.

L’évolution vers l’exécution d’IA dans le matériel est aujourd’hui observée dans différentes entreprises, Google cherchant à intégrer son IA Gemini dans la gamme Pixel. D’autre part, Qualcomm cherche également à développer des puces qui feraient fonctionner l’IA dans les smartphones de manière native.

Développement de l’IA par Apple

Bien qu’il n’y ait pas grand-chose à voir et à attendre d’Apple en matière de développement de l’IA dans sa technologie actuelle, des personnes familières avec le sujet et d’autres sources affirment massivement qu’elle est en train d’en faire une. Un rapport antérieur parlait d’une IA de type ChatGPT à venir sur la plateforme Apple, très probablement un chatbot d’IA, spéculé pour améliorer la technologie de Siri.

Il a également été considéré auparavant que Siri était en train de se faire distancer par la concurrence, car l’assistant d’intelligence artificielle n’apportait que de petites améliorations à la fonction, qui restait stagnante par rapport à ce qu’elle avait à offrir. Ceci étant dit, il a été dit que le développement de Siri par Apple a été affecté par des préoccupations massives en matière de confidentialité ainsi que par des conflits internes, qui auraient été retenus pour obtenir des améliorations.

Depuis de nombreuses années, Siri est devenu une icône pour les utilisateurs d’iPhone, et l’IA propriétaire s’est avérée utile pour une expérience mains libres, mais elle est restée ainsi pendant longtemps. Cependant, cette technologie n’est pas encore oubliée par Apple, car la société a d’autres projets d’intégration de LLM dans les iPhone centrés sur le matériel en tant que star pour faire fonctionner l’expérience, et non par le cloud — peut-être en rapport avec Siri.

Tags : AppleLLM
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.