fermer
Intelligence Artificielle

Meta lance l’API Llama : ChatGPT a un nouveau concurrent ultra-rapide !

Meta lance l'API Llama : ChatGPT a un nouveau concurrent ultra-rapide !
Meta lance l'API Llama : ChatGPT a un nouveau concurrent ultra-rapide !

Meta a récemment franchi une étape majeure dans sa stratégie d’intelligence artificielle en lançant officiellement l’API Llama lors de sa première conférence dédiée aux développeurs, LlamaCon, qui s’est tenue le 29 avril 2025 à Menlo Park.

Cette initiative marque l’entrée de Meta dans le domaine des services d’inférence IA, en concurrence directe avec des acteurs établis tels que OpenAI, Google et Anthropic.

Une API Llama ultra-rapide grâce à Cerebras

L’élément le plus marquant de cette annonce est le partenariat stratégique entre Meta et Cerebras Systems. Grâce à l’intégration des puces spécialisées de Cerebras, l’API Llama atteint des vitesses d’inférence impressionnantes, jusqu’à 2 600 tokens par seconde pour le modèle Llama 4 Scout.

À titre de comparaison, ChatGPT fonctionne à environ 130 tokens par seconde, et DeepSeek à environ 25 tokens par seconde.

Cette performance exceptionnelle est rendue possible par le Wafer Scale Engine 3 (WSE-3) de Cerebras, une puce de 5 nm contenant 900 000 cœurs optimisés pour l’IA, offrant une puissance de calcul de 125 pétaflops. Cette avancée permet le développement d’applications en temps réel auparavant inaccessibles, telles que des agents conversationnels à faible latence, la génération de code interactive et le raisonnement multi-étapes instantané.

Une offre ouverte et personnalisable

Meta met en avant la flexibilité de son API Llama. Les développeurs peuvent affiner et évaluer les performances des modèles Llama, en commençant par Llama 3.3 8B, et ont la possibilité de transférer leurs modèles personnalisés vers d’autres hébergeurs. Meta s’engage également à ne pas utiliser les données des clients pour entraîner ses propres modèles, se distinguant ainsi de certains concurrents.

L’API est actuellement disponible en aperçu limité, avec une expansion prévue dans les semaines à venir. Les développeurs peuvent accéder à l’inférence ultra-rapide de Llama 4 en sélectionnant Cerebras dans les options de modèle au sein de l’API. Une intégration avec Groq est également proposée, offrant des vitesses d’inférence supérieures à celles des solutions basées sur GPU traditionnels.

Une transformation stratégique pour Meta

Avec cette initiative, Meta transforme son approche de l’IA, passant d’un simple fournisseur de modèles à un acteur majeur des services d’infrastructure IA. En commercialisant l’accès à ses modèles Llama via une API performante, Meta crée une nouvelle source de revenus tout en renforçant son engagement envers des modèles ouverts et accessibles.

Cette stratégie pourrait redéfinir le paysage de l’IA, en offrant aux développeurs des outils puissants et flexibles pour créer des applications innovantes, tout en stimulant la concurrence dans un secteur en pleine expansion.

Pour plus d’informations et pour accéder à l’aperçu de l’API Llama, les développeurs peuvent visiter le site officiel de Meta AI.

Tags : APILlamaLlamaConMeta
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.