fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Gemini 1.5 Flash : Rapidité, précision et liens sources pour Gemini

Gemini 1.5 Flash : Rapidité, précision et liens sources pour Gemini

Google vient d’annoncer plusieurs mises à jour pour la version gratuite de son chatbot Gemini, avec notamment l’intégration de son modèle multimodal à faible latence, Gemini 1.5 Flash, et l’ajout de liens sources pour réduire les hallucinations.

Précédemment réservé aux développeurs, Gemini 1,5 Flash est désormais accessible au grand public dans la version gratuite de Gemini, dans l’application mobile et dans l’interface Web à l’adresse gemini.google.com. Ce modèle est idéal pour les tâches nécessitant des réponses rapides, comme les questions des clients. Présenté lors de la conférence annuelle Google I/O en mai, il se distingue par sa grande fenêtre de contexte, capable de traiter environ 1 million de tokens.

Sur le chatbot Gemini, cette fenêtre de contexte est de 32K tokens, permettant ainsi de répondre à des questions plus complexes et de maintenir des conversations prolongées.

Google a déclaré dans un billet de blog : « Cela signifie que vous pouvez avoir des conversations plus longues et poser des questions plus complexes à Gemini, le tout gratuitement ». L’entreprise précise également que vous devriez constater « des améliorations générales en termes de qualité et de temps de latence, notamment en ce qui concerne le raisonnement et la compréhension des images ».

Afin de tirer pleinement parti des capacités de Gemini 1.5 Flash, Google a ajouté la possibilité de gérer les téléchargements de fichiers depuis Google Drive ou des appareils personnels, une fonctionnalité auparavant réservée à Gemini Advanced, la version payante du chatbot.

Un autre ajout notable est la fonction « contenu connexe », qui affiche des liens vers des sites Web ou des e-mails pertinents dans les réponses de Gemini. Google a également introduit une fonction de double vérification qui utilise Google Recherche pour vérifier les réponses, mettant en évidence les déclarations corroborées ou contredites sur le Web. Bien que Google ne soit pas la seule entreprise à ajouter des liens pour l’attribution des réponses, il a été constaté que certains chatbots, comme ChatGPT et Perplexity, hallucinaient parfois des liens, associant des liens à des articles inexistants ou sans rapport.

Vitesse et disponibilité de Gemini 1.5 Flash

À son lancement, Google a affirmé que Gemini 1,5 Flash était 40 % plus rapide que le modèle rapide GPT-3.5 Turbo d’OpenAI. Bien que ce modèle ne soit pas de petite taille, comme ceux de la famille Gemma, il a été entraîné avec les mêmes données que Gemini 1,5 Pro. Disponible sur les versions mobiles et desktop, Gemini 1,5 Flash est accessible dans plus de 230 pays et territoires et prend en charge 40 langues.

Comme indiqué précédemment, les hallucinations restent un défi pour les modèles d’IA. Pour y remédier, Google a décidé d’ajouter des liens pertinents aux réponses du chatbot. Cela permet de montrer que les informations fournies ne sont pas créées sans référence. Désormais, pour les requêtes en anglais dans certains pays, les utilisateurs peuvent cliquer sur une puce à la fin d’un paragraphe pour voir les sites Web de référence.

D’autres nouvelles sur Gemini

Google prévoit de communiquer d’autres informations sur Gemini lors de son événement Made by Google, le mois prochain, en même temps que le lancement de ses nouveaux appareils. En attendant, vous pouvez essayer gratuitement toutes ces nouvelles fonctionnalités de Gemini dès aujourd’hui.

Gemini est déjà disponible sur iOS, Android et le Web, mais il arrive enfin sur Google Messages en Europe, au Royaume-Uni et en Suisse. Si vous l’avez déjà, appuyez sur « Démarrer le chat » dans Google Messages et sélectionnez « Gemini » pour commencer à discuter. Autre chose : Gemini dans Messages prend désormais en charge davantage de langues, notamment le français, le polonais et l’espagnol.

Lire plus
Intelligence Artificielle

Meta AI : Nouveaux outils de création d’images et disponibilité élargie à 22 pays

Meta AI : Nouveaux outils de création d’images et disponibilité élargie à 22 pays

Meta, le géant technologique, continue de faire évoluer ses technologies d’intelligence artificielle (IA) avec des mises à jour régulières. Cette fois, c’est Meta AI, l’assistant virtuel gratuit intégré aux applications de Meta — Facebook, Instagram, Messenger et WhatsApp — qui se voit doté de nouvelles fonctionnalités et d’une disponibilité élargie.

Meta AI est désormais disponible dans 22 pays, y compris les nouveaux ajouts :

  • Argentine
  • Chili
  • Colombie
  • Équateur
  • Mexique
  • Pérou
  • Cameroun

00 AI Language

En plus de cette expansion géographique, Meta AI supporte désormais sept nouvelles langues, offrant une interaction en :

  • Français
  • Allemand
  • Hindi
  • Italien
  • Portugais
  • Espagnol

Nouvelles fonctionnalités pour les plateformes de Meta

Meta renforce ses plateformes les plus populaires avec des capacités IA innovantes. Sur Instagram, Facebook, Messenger, et WhatsApp, vous pouvez maintenant créer et personnaliser des images de manière simple. Il suffit de taper « imagine » pour décrire ce que vous voulez, puis demander à Meta AI d’ajuster l’image en ajoutant ou supprimant des objets, voire en animant certaines parties.

452010595 878889830946279 206087 jpg

Cette fonctionnalité, nommée Imagine Edit, est d’abord lancée en anglais, avec des plans pour intégrer d’autres langues prochainement.

La fonctionnalité « Imagine me » permet de vous voir dans divers scénarios. En envoyant « Imagine me » dans une discussion avec Meta AI, vous pouvez vous retrouver dans des situations fantastiques comme « Imagine me avec une autruche ». Actuellement en phase bêta aux États-Unis, cette fonctionnalité sera bientôt disponible dans d’autres langues et pays.

02 IG Imagine Me SR Face Scan

Partage d’images générées par l’IA

Bientôt, il sera possible de partager directement les images créées avec Meta AI dans vos publications. Cette option permettra de générer des images dans le fil d’actualité, les stories, les commentaires et les messages sur Facebook, Instagram, Messenger et WhatsApp. Cette fonctionnalité débutera en anglais cette semaine.

05 Imagine create directly in FB jpg

Avec l’introduction de nouveaux outils créatifs basés sur l’IA et l’expansion de Meta AI à travers le monde, Meta démontre que l’IA est une priorité majeure. Cependant, ces fonctionnalités peuvent potentiellement contribuer à la confusion et à la désinformation sur les réseaux sociaux. Bien que Meta ait promis d’étiqueter les contenus générés par l’IA, cette fonctionnalité n’est pas encore largement disponible. L’étiquette IA n’apparaît que si Meta détecte des indicateurs d’image IA standard de l’industrie ou si les utilisateurs divulguent qu’ils ont téléchargé du contenu généré par l’IA, ce qui signifie que de nombreuses images pourraient ne pas être étiquetées.

Lire plus
Intelligence Artificielle

xAI d’Elon Musk lance Memphis, un supercalculateur d’IA

xAI d’Elon Musk lance Memphis, un supercalculateur d’IA

Elon Musk, PDG de Tesla et propriétaire de Twitter/X, a annoncé lundi que sa startup en intelligence artificielle, xAI, avait officiellement commencé la formation de son supercalculateur, nommé Memphis.

Décrit par Musk comme « le cluster de formation d’IA le plus puissant au monde », ce supercalculateur est installé dans une ancienne usine de production d’Electrolux à Memphis, Tennessee.

Une fois pleinement opérationnel, Musk prévoit d’utiliser ce supercalculateur pour développer « l’IA la plus puissante au monde selon tous les critères d’ici décembre de cette année », ce qui sera vraisemblablement le Grok 3.

Le supercalculateur de xAI, baptisé « Gigafactory of Compute », utilisera 100 000 GPU H100 de Nvidia. Ces GPU sont basés sur l’architecture Hopper, formant un réseau environ 4x plus grand que les clusters actuels les plus avancés, tels que le cluster Intel GPU Aurora (60,000 GPU) au Argonne National Lab, le Frontier d’AMD (environ 38 000 GPU) à Oak Ridge, et l’Eagle de Microsoft qui fonctionne avec 14 400 GPU H100 de NVIDIA.

Un investissement record à Memphis

Selon Ted Townsend, président et directeur général de la Greater Memphis Chamber, l’ouverture de cette installation de formation représente le plus grand investissement en capital par une nouvelle entreprise dans l’histoire de Memphis. Le supercalculateur servira à « alimenter et financer l’espace de l’IA pour toutes ses [Musk] entreprises, en commençant évidemment par Tesla et SpaceX », a-t-il déclaré. « Si vous pouvez imaginer la puissance de calcul nécessaire pour placer des humains à la surface de Mars, cela va se passer ici à Memphis ».

Malgré cet investissement de plusieurs milliards de dollars par xAI, l’installation ne devrait générer que quelques centaines d’emplois locaux. De plus, selon un rapport de WREG, la Tennessee Valley Authority (TVA) n’a pas encore de contrat en place avec xAI. La TVA travaille avec xAI et ses partenaires chez Memphis Light, Gas and Water (MLGW) sur les détails de la proposition et des besoins en électricité. La TVA a également souligné que tout projet dépassant les 100 mégawatts (MW) nécessite son approbation pour se connecter au réseau électrique de l’État. Le président de MLGW, Doug McGowen, estime que l’installation de Musk pourrait consommer jusqu’à 150 MW pendant les périodes de pointe.

Lire plus
Intelligence Artificielle

Meta dévoile Llama 3.1, son plus grand et meilleur modèle open source à ce jour

Meta dévoile Llama 3.1, son plus grand et meilleur modèle open source à ce jour

Meta, la société mère de Facebook, a annoncé mardi le lancement de son Large Language Model open source Llama 3.1. Ce nouveau modèle sera disponible en trois tailles — 8B, 70B et 405B paramètres — ce dernier étant le plus grand modèle d’IA open source jamais créé. Mark Zuckerberg, PDG de Meta, décrit Llama 3.1 comme « le premier modèle d’IA open source de niveau frontalier ».

« L’année dernière, Llama 2 était comparable à une génération plus ancienne de modèles dépassée par les avancées actuelles », a écrit Zuckerberg dans un article de blog mardi. « Cette année, Llama 3 est compétitif avec les modèles les plus avancés et leader dans certains domaines. À partir de l’année prochaine, nous nous attendons à ce que les futurs modèles Llama deviennent les plus avancés de l’industrie ».

Ragavan Srinivasan, vice-président de la gestion des programmes d’IA chez Meta, a déclaré : « Ce modèle, d’un point de vue performance, va offrir des résultats à la pointe de la technologie en matière de modèles open source, et sera incroyablement compétitif avec de nombreux modèles propriétaires de premier plan ».

Llama 3.1 sera multilingue dès son lancement, supportant l’anglais, le portugais, l’espagnol, l’italien, l’allemand, le français, l’hindi et le thaï. De plus, sa fenêtre contextuelle a été étendue à 128 000 tokens, permettant de traiter des textes équivalents à un roman de près de 400 pages.

ca072de4 67b7 406d b8cd 004b128e jpg

Entraîné sur 15 trillions de tokens à l’aide de 16 000 GPU H100, Meta affirme que le modèle de 405B paramètres est nettement plus grand que son prédécesseur, Llama 3. Selon les rapports, il rivalise avec les meilleurs modèles propriétaires actuels tels que le GPT-4o d’OpenAI, le Gemini 1.5 de Google, ou le Claude 3.5 d’Anthropic en matière de « connaissances générales, mathématiques, utilisation d’outils et traduction multilingue ».

Zuckerberg a prédit sur Instagram mardi que Meta AI surpasserait ChatGPT en tant qu’assistant IA le plus utilisé d’ici la fin de l’année.

b8c5c58d 39f0 49b5 aea5 848fcf38 jpg

Llama 3.1 : Une aubaine pour le monde de l’open source

La société note que les trois versions de Llama 3.1 bénéficieront de longueurs de prompt étendues de 128k tokens, permettant aux utilisateurs de fournir un contexte supplémentaire et jusqu’à un livre entier de documentation de soutien. De plus, Meta a modifié son accord de licence pour permettre aux développeurs d’utiliser les sorties de Llama 3.1 pour entraîner d’autres modèles.

Meta a également annoncé son partenariat avec plus d’une douzaine d’autres entreprises du secteur pour développer davantage l’écosystème Llama. Amazon, Databricks et Nvidia lanceront des suites logicielles complètes pour aider les développeurs à affiner leurs propres modèles basés sur Llama, tandis que la startup Groq a « construit un service d’inférence à faible latence et à faible coût » pour la nouvelle famille de modèles 3.1, a écrit Zuckerberg.

f1db205d 33cc 4d74 b9d7 bcaf72e7 jpg

Étant open source, Llama 3.1 sera disponible sur tous les principaux services cloud, y compris AWS, Google Cloud et Azure.

Llama 3.1 sera également disponible sur WhatsApp et Meta AI, offrant ainsi une large accessibilité à ce modèle puissant.

Lire plus
Intelligence Artificielle

Google prévoit d’intégrer Gemini dans des lunettes connectées avec EssilorLuxottica

Google prévoit d’intégrer Gemini dans des lunettes connectées avec EssilorLuxottica

Les lunettes connectées connaissent une renaissance, avec les ventes des lunettes Ray-Ban Meta en plein essor ces derniers mois. Désormais, il semble que Google souhaite se mesurer à Meta en intégrant son assistant Gemini dans des lunettes futuristes.

Selon le Financial Times, Meta est en discussions avancées avec le fabricant de Ray-Ban, EssilorLuxottica, pour acquérir une participation de 5 % dans l’entreprise. Cependant, The Verge rapporte que Google a récemment approché le fabricant de lunettes EssilorLuxottica pour intégrer son assistant Gemini dans de futures lunettes connectées.

Les sources de The Verge indiquent qu’il est « extrêmement improbable » que Meta perde son partenariat avec EssilorLuxottica au profit de Google, ajoutant qu’il est probable que Meta investisse effectivement dans la société.

Il est également noté que Google avait déjà collaboré avec Luxottica (avant sa fusion avec Essilor) pour créer les malheureuses Google Glass il y a presque 10 ans.

Cette nouvelle arrive alors que Google poursuit le développement de sa plateforme XR, destinée à alimenter des casques et des lunettes intelligentes. Google s’est associé à Samsung et Qualcomm pour un appareil, un rapport récent suggérant qu’une version pour développeurs pourrait être lancée en octobre, avant un lancement commercial prévu pour le premier trimestre 2025.

Les lunettes Ray-Ban Meta sans Gemini

Donc, même si Google parvient à convaincre EssilorLuxottica de fabriquer des lunettes connectées avec l’assistant Gemini, il faudra attendre un certain temps avant une sortie commerciale si cette plateforme est utilisée.

Les lunettes Ray-Ban Meta commencent à 329 euros et offrent l’assistant IA de Meta, une caméra de 12 mégapixels avec un indicateur de confidentialité, un support de diffusion en direct et des haut-parleurs intégrés. Meta a également récemment mis à jour les lunettes connectées pour offrir un enregistrement vidéo plus long (jusqu’à trois minutes), ainsi que le support d’Amazon Music et de l’application de méditation Calm.

Lire plus
Intelligence Artificielle

Pas de Llama 3 pour l’Europe : Meta bloque le déploiement de son IA multimodale

Pas de Llama 3 pour l’Europe : Meta bloque le déploiement de son IA multimodale

Meta, la société mère de Facebook, Instagram et WhatsApp, a confirmé qu’elle ne lancerait pas son modèle d’IA multimodale Llama 3 dans l’Union européenne en raison de préoccupations liées à l’environnement réglementaire « imprévisible ».

Meta a fait cette déclaration dans un contexte de malaise permanent face aux obstacles qui se dressent sur son chemin, en raison de l’introduction par l’Union européenne de législations telles que la loi sur les marchés numériques (DMA) et la future loi européenne sur l’IA. De nombreuses autres entreprises partagent cette consternation et cette réticence à lancer des produits dans l’UE en raison de ce qui est considéré comme des conditions défavorables.

« Nous lancerons un modèle multimodal de Llama dans les mois à venir, mais pas dans l’UE en raison de la nature imprévisible de l’environnement réglementaire européen », a déclaré un porte-parole de Meta, soulignant les frictions entre les grandes entreprises technologiques et Bruxelles.

Les modèles d’IA multimodaux comme Llama 3 sont conçus pour fonctionner avec plusieurs formats, notamment les images, le texte, l’audio et la vidéo. Toutefois, le modèle open source ne sera pas introduit en Europe, du moins pas dans un avenir prévisible.

66217d9ae4015dd99157a819 introdu jpg

On pense que la décision de retirer Llama 3 de l’UE est spécifiquement liée à des préoccupations concernant la conformité avec les règles du RGPD. Meta a été contraint d’interrompre l’entraînement de son IA avec des posts d’utilisateurs de Facebook et d’Instagram en raison d’une violation potentielle des règles de confidentialité.

Ces derniers jours, l’UE a fixé des délais de mise en conformité pour les entreprises d’IA afin qu’elles adhèrent à la future loi sur l’IA, donnant aux opérateurs jusqu’en août 2026 pour réagir et apporter des changements dans des domaines tels que le droit d’auteur, la transparence et les résultats de l’IA.

L’opposition d’Apple à la loi sur les marchés numériques

La décision de Meta d’abandonner le déploiement de Llama 3 dans l’UE fait suite à un acte similaire de la part d’Apple, qui a indiqué qu’elle délaisserait probablement l’Europe pour l’introduction de Apple Intelligence. Cette décision a été directement influencée par la loi sur les marchés numériques (DMA), qui vise à prévenir les comportements anticoncurrentiels.

Le fabricant de l’iPhone estime que le respect des règles de la DMA créerait une vulnérabilité et compromettrait potentiellement la sécurité de ses appareils.

Le mois dernier, une déclaration de l’entreprise indiquait : « Plus précisément, nous craignons que les exigences d’interopérabilité de la DMA ne nous obligent à compromettre l’intégrité de nos produits de manière à mettre en péril la vie privée des utilisateurs et la sécurité des données ».

Lire plus
Intelligence Artificielle

OpenAI lance GPT-4o Mini : Une IA performante et abordable

OpenAI lance GPT-4o Mini : Une IA performante et abordable

Après GPT-4o, OpenAI dévoile GPT-4o Mini, une version allégée et moins coûteuse de ses modèles d’intelligence artificielle, destinée à offrir une alternative abordable aux développeurs. Ce modèle, tout en étant plus économique que ses prédécesseurs, se révèle plus performant que GPT-3.5.

Les coûts élevés associés à l’utilisation des modèles d’OpenAI ont souvent dissuadé les développeurs sans moyens financiers suffisants, les poussant à se tourner vers des alternatives moins onéreuses comme Gemini 1,5 Flash de Google ou le Claude 3 Haiku d’Anthropic. Avec GPT-4o Mini, OpenAI fait son entrée dans le marché des modèles légers.

À partir d’aujourd’hui, les utilisateurs de ChatGPT sur les plans Gratuit, Plus et Team peuvent utiliser GPT-4o Mini au lieu de GPT-3.5 Turbo, les utilisateurs Enterprise y auront accès la semaine prochaine. Ainsi, GPT-3.5 ne sera plus disponible pour les utilisateurs de ChatGPT, mais restera accessible via l’API pour les développeurs préférant ne pas passer à GPT-4o Mini. Cependant, GPT-3.5 sera retiré de l’API à une date ultérieure non déterminée.

Le nouveau modèle léger prendra également en charge le texte et la vision via l’API et sera bientôt capable de gérer tous les types d’entrées et de sorties multimodales, comme la vidéo et l’audio. Ces capacités pourraient permettre de créer des assistants virtuels plus performants, capables de comprendre des itinéraires de voyage et de proposer des suggestions, bien que le modèle soit destiné à des tâches simples, évitant ainsi de créer une version bon marché de Siri.

GPT-4o Mini a obtenu un score de 82 % au test Measuring Massive Multitask Language Understanding (MMLU), un examen de référence comprenant environ 16 000 questions à choix multiples couvrant 57 sujets académiques. En comparaison, GPT-3.5 avait obtenu 70 %, GPT-4o 88,7 %, tandis que Google revendique pour Gemini Ultra le score le plus élevé jamais atteint de 90 %. Les modèles concurrents Claude 3 Haiku et Gemini 1,5 Flash ont respectivement obtenu 75,2 % et 78,9 %.

GPT-4o Mini va être une aubaine pour les développeurs

Il est important de noter que les chercheurs restent prudents quant à ces benchmarks, car leur administration varie légèrement d’une entreprise à l’autre, rendant difficile la comparaison des scores. De plus, l’IA pourrait avoir déjà intégré les réponses dans son dataset, ce qui lui permettrait de « tricher », et aucun évaluateur tiers n’est généralement impliqué dans le processus.

Pour les développeurs désireux de créer des applications d’IA à moindre coût, le lancement de GPT-4o Mini offre un nouvel outil précieux. OpenAI a permis à la startup fintech Ramp de tester le modèle, en l’utilisant pour développer un outil d’extraction des données des reçus. De même, le client de messagerie Superhuman a testé GPT-4o Mini pour créer une fonction de suggestion automatique de réponses aux emails.

L’objectif est de fournir un modèle léger et peu coûteux pour permettre aux développeurs de créer toutes les applications et outils qu’ils ne pouvaient se permettre avec un modèle plus grand et plus coûteux comme GPT-4.

Lire plus
Intelligence Artificielle

Claude : L’application Android du chatbot d’Anthropic enfin disponible

Claude : L’application Android du chatbot d’Anthropic enfin disponible

Anthropic, la société d’intelligence artificielle à l’origine du populaire chatbot Claude, a annoncé aujourd’hui le lancement de sa première application officielle pour Android. Cette initiative permet d’apporter les capacités conversationnelles de Claude à des millions de nouveaux utilisateurs potentiels sur le système d’exploitation mobile le plus utilisé au monde.

L’application Claude pour Android reprend les fonctionnalités principales des versions Web et iOS existantes d’Anthropic, offrant des conversations en langage naturel, une assistance aux tâches et une collaboration créative. Les utilisateurs Android peuvent désormais utiliser Claude pour les aider à écrire, analyser, résoudre des problèmes mathématiques, coder et accomplir une large gamme de tâches directement depuis leurs smartphones et tablettes.

Ce lancement sur Android représente une décision stratégique majeure pour Anthropic. En s’ouvrant à la plateforme mobile la plus populaire au monde avec plus de 3 milliards d’utilisateurs actifs, la société se positionne pour augmenter rapidement sa base d’utilisateurs et défier la domination d’OpenAI sur le marché des assistants IA. Ce timing est crucial, car l’industrie de l’IA est à un point d’inflexion où l’adoption par les utilisateurs et la collecte de données du monde réel deviennent de plus en plus vitales pour améliorer les modèles d’IA et gagner des parts de marché.

Un défi pour la domination de ChatGPT

Le lancement sur Android intervient à un moment critique pour le marché des assistants IA. Alors que le ChatGPT d’OpenAI a fait les gros titres et attiré plus de 100 millions d’utilisateurs, Anthropic a progressé régulièrement avec Claude. Ce lancement pourrait être le catalyseur dont Claude a besoin pour combler l’écart avec ChatGPT en termes d’accessibilité mobile et d’adoption par les utilisateurs.

Android Screenshots scaled

La décision d’Anthropic de lancer Claude sur Android montre clairement ses ambitions dans l’industrie de l’IA. En rendant Claude accessible à des milliards d’utilisateurs potentiels dans le monde, l’entreprise se positionne comme un acteur majeur sur le marché des assistants IA mobiles. Contrairement à certains de ses concurrents, Anthropic maintient une politique stricte de confidentialité, n’utilisant pas les interactions des utilisateurs pour entraîner ses modèles. Cette approche distingue Claude dans un marché de plus en plus soucieux de la confidentialité, potentiellement attrayant pour les utilisateurs et les entreprises préoccupés par l’utilisation des données.

Claude Vision : Une nouvelle capacité d’analyse d’images

L’application Android de Claude inclut plusieurs fonctionnalités adaptées à l’utilisation mobile, notamment une interface simplifiée, un mode hors ligne pour certaines fonctions et une intégration avec le menu de partage d’Android pour un accès facile entre les applications. Anthropic affirme avoir optimisé les modèles linguistiques de Claude pour fonctionner efficacement sur les appareils mobiles sans compromettre les performances.

Notamment, l’application Android introduit également « Claude Vision » — une nouvelle capacité d’analyse d’images permettant aux utilisateurs de télécharger des photos pour que Claude puisse les décrire et les analyser. Cette fonctionnalité exploite les capacités multimodales de Claude et offre des applications pratiques pour les utilisateurs mobiles.

Par exemple, un étudiant pourrait prendre une photo de diagrammes ou d’équations complexes pour que Claude les explique en termes plus simples. Au travail, les professionnels pourraient utiliser Claude Vision pour extraire rapidement du texte à partir d’images de documents ou de cartes de visite. En apportant une analyse d’image sophistiquée aux appareils mobiles, Claude Vision étend les fonctionnalités de l’application et la distingue dans le marché compétitif de l’IA mobile.

Le lancement de Claude sur Android intensifie la compétition dans l’espace des assistants IA, qui a connu une croissance explosive au cours de l’année écoulée. Bien que ChatGPT maintienne une avance significative, Claude s’est forgé une réputation pour ses réponses plus nuancées et ses meilleures performances sur des tâches de raisonnement complexes.

En n’utilisant pas les données des utilisateurs pour entraîner ses modèles, cette expansion vers Android permet à Anthropic de montrer les capacités de Claude à un public beaucoup plus large. L’augmentation de l’exposition et de la base d’utilisateurs pourrait conduire à plus d’abonnements et de revenus, aidant potentiellement Anthropic à investir davantage dans la recherche et le développement pour améliorer les performances de Claude. Cette stratégie de croissance par une accessibilité plus large, plutôt que par une collecte accrue de données, est en ligne avec l’engagement d’Anthropic envers la confidentialité et pourrait aider à différencier Claude dans un marché encombré.

Lire plus
Intelligence Artificielle

Découvrez ce qui se cache derrière le terme GPT dans ChatGPT

Découvrez ce qui se cache derrière le terme GPT dans ChatGPT

L’intelligence artificielle (IA) est de plus en plus présente dans notre quotidien. Des applications capables de générer des images aux assistants virtuels produisant des textes variés, la technologie progresse rapidement.

Parmi les entreprises pionnières dans le développement de l’IA, OpenAI se distingue particulièrement grâce à son assistant virtuel, ChatGPT. Cependant, beaucoup ignorent encore ce que signifie le terme GPT dans ChatGPT.

Que signifie GPT dans ChatGPT ?

GPT signifie Generative Pre-Trained Transformers (Transformeur génératif pré-entraîné), un élément clé dans le processus de génération d’IA. Les GPT sont des Large Language Model, fonctionnant comme un réseau de neurones artificiels basé sur l’architecture des transformateurs.

Cette technologie permet aux applications d’IA de générer des images, des textes, de la musique et bien plus encore de manière similaire à celle des humains. Depuis l’introduction des GPT par OpenAI en 2018, la société a considérablement amélioré leur efficacité et la qualité de leurs productions. OpenAI n’est pas la seule entreprise à utiliser cette technologie, plusieurs autres ont suivi le même chemin.

Les GPT : un standard dans le domaine de l’IA

Les GPT sont devenus un standard pour les entreprises explorant l’IA. Même des entreprises en dehors du domaine de l’IA, comme Duolingo, ont intégré cette technologie dans leurs produits. Duolingo Max utilise ainsi GPT-4 pour améliorer l’expérience d’apprentissage des langues.

Les défis liés à l’utilisation du terme GPT

Bien que cette technologie soit bénéfique pour les entreprises et les utilisateurs, OpenAI n’est pas satisfaite que d’autres utilisent le terme GPT. Depuis 2023, OpenAI a exprimé son mécontentement à ce sujet et a même menacé de prendre des mesures si les autres entreprises continuaient à utiliser cette dénomination. OpenAI a tenté de déposer une marque pour GPT auprès de l’Office américain des brevets et des marques, mais cette tentative a échoué, le terme étant jugé trop général pour être validé.

Avec l’intérêt croissant des marques et des individus technologiquement compétents, il est évident que les Generative Pre-Trained Transformers continueront à se développer et à s’améliorer dans les années à venir. Espérons simplement que les scénarios catastrophes potentiels liés à l’IA actuelle ne se concrétiseront pas dans ce processus.

Lire plus
Intelligence Artificielle

OpenAI établit un système de classification en cinq niveaux pour l’AGI

OpenAI établit un système de classification en cinq niveaux pour l’AGI

OpenAI a récemment présenté un système en cinq niveaux pour évaluer ses avancées vers le développement de l’intelligence artificielle générale (AGI), selon un porte-parole de l’entreprise ayant parlé avec Bloomberg.

Ce nouveau système de classification a été partagé mardi avec les employés lors d’une réunion générale, dans le but de fournir un cadre clair pour comprendre l’évolution de l’IA. Cependant, ce système décrit une technologie hypothétique qui n’existe pas encore et pourrait être interprété comme une stratégie marketing pour attirer des investisseurs.

OpenAI a déjà affirmé que l’AGI — un terme nébuleux désignant un concept hypothétique d’un système d’IA capable d’exécuter des tâches nouvelles comme un humain sans formation spécialisée — est actuellement l’objectif principal de l’entreprise. La quête de cette technologie, qui pourrait remplacer les humains dans la plupart des travaux intellectuels, alimente une grande partie du battage médiatique persistant autour de la firme, bien que cette technologie serait probablement extrêmement perturbatrice pour la société.

Le PDG d’OpenAI, Sam Altman, a précédemment exprimé sa conviction que l’AGI pourrait être réalisée d’ici la fin de cette décennie. Une grande partie de ses messages publics concerne la gestion de la potentielle perturbation que l’AGI pourrait apporter à la société. Dans ce contexte, un système de classement pour communiquer les jalons atteints en interne sur le chemin vers l’AGI a du sens.

Les cinq niveaux d’OpenAI — qu’elle prévoit de partager avec les investisseurs — vont des capacités actuelles de l’IA à des systèmes potentiellement capables de gérer des organisations entières. L’entreprise estime que sa technologie actuelle (telle que GPT-4, qui alimente ChatGPT) se situe au Niveau 1, qui comprend les IA capables d’interactions conversationnelles.

Cependant, les dirigeants d’OpenAI auraient déclaré au personnel qu’ils sont sur le point d’atteindre le Niveau 2, surnommé « Reasoners ».

Les niveaux de l’intelligence artificielle selon OpenAI

Bloomberg liste les « cinq niveaux de l’intelligence artificielle » d’OpenAI comme suit :

  1. Niveau 1 : Chatbots—IA avec langage conversationnel.
  2. Niveau 2 : Reasoners—Résolution de problèmes de niveau humain.
  3. Niveau 3 : Agents — Systèmes capables d’agir de manière autonome.
  4. Niveau 4 : Innovators—IA pouvant aider à l’invention.
  5. Niveau 5 : Organizations—IA capable de gérer des organisations.

Un système d’IA de Niveau 2 serait capable de résoudre des problèmes basiques à un niveau comparable à celui d’un humain titulaire d’un doctorat, mais sans accès à des outils externes. Lors de la réunion générale, la direction d’OpenAI a présenté un projet de recherche utilisant leur modèle GPT-4 qui, selon les chercheurs, montre des signes de cette capacité de raisonnement proche de celle de l’humain, selon une personne proche de la discussion ayant parlé avec Bloomberg.

image 7 jpg

Les niveaux supérieurs : capacités hypothétiques

Les niveaux supérieurs de la classification d’OpenAI décrivent des capacités hypothétiques de plus en plus puissantes. Les « Agents » de Niveau 3 pourraient travailler de manière autonome sur des tâches pendant plusieurs jours. Les systèmes de Niveau 4 généreraient des innovations nouvelles. Le sommet, le Niveau 5, envisage une IA gérant des organisations entières.

Ce système de classification est encore en cours d’élaboration. OpenAI prévoit de recueillir des commentaires des employés, des investisseurs et des membres du conseil d’administration, affinant potentiellement les niveaux au fil du temps.

La problématique de la classification des capacités de l’IA

Tout système de classification de l’IA soulève des questions sur la possibilité de quantifier de manière significative les progrès de l’IA et ce qui constitue une avancée (ou même ce qui constitue un système d’IA « dangereux », comme dans le cas d’Anthropic). Jusqu’à présent, l’industrie technologique a une histoire de promesses excessives concernant les capacités de l’IA, et les modèles de progression linéaire comme celui d’OpenAI risquent potentiellement de nourrir des attentes irréalistes.

Il n’existe actuellement aucun consensus dans la communauté de recherche en IA sur la manière de mesurer les progrès vers l’AGI ou même si l’AGI est un objectif bien défini ou réalisable. En tant que tel, le système en cinq niveaux d’OpenAI doit probablement être considéré comme un outil de communication pour attirer les investisseurs, montrant les objectifs ambitieux de l’entreprise plutôt qu’une mesure scientifique ou même technique des progrès.

Lire plus
Intelligence Artificielle

Thrive AI Health : Vers un coach de santé IA pour réduire les maladies chroniques

Thrive AI Health : Vers un coach de santé IA pour réduire les maladies chroniques

Les leaders de l’IA sont de plus en plus optimistes quant au potentiel de la technologie dans le secteur de la santé, en particulier lorsqu’il s’agit de chatbots personnalisés capables de comprendre et de traiter les problèmes de santé individuels.

Dans une tribune publiée dimanche dans le Time, Sam Altman, cofondateur d’OpenAI, et Arianna Huffington, fondatrice du Huffington Post, ont annoncé leur collaboration pour financer le développement d’un « coach de santé IA » via la startup Thrive AI Health. La société a choisi DeCarlos Love, un ancien cadre de Google qui a travaillé sur Fitbit et d’autres wearables, comme PDG. Thrive AI Health a également établi des partenariats de recherche avec plusieurs institutions universitaires et centres médicaux tels que Stanford Medicine, le Rockefeller Neuroscience Institute de l’université de Virginie occidentale et l’Alice L. Walton School of Medicine.

Ce médecin numérique serait formé sur « les meilleures sciences évaluées par des pairs » ainsi que sur « les données biométriques, de laboratoire et autres données médicales » que les utilisateurs choisissent de partager avec l’entreprise.

Altman et Huffington expliquent que chaque aspect de notre santé est profondément influencé par cinq comportements quotidiens fondamentaux : le sommeil, l’alimentation, l’exercice, la gestion du stress et les relations sociales. Grâce à l’hyper-personnalisation, l’IA pourrait améliorer significativement ces comportements. Par exemple, le chatbot médical pourrait apprendre les conditions qui favorisent votre sommeil, vos aliments préférés, vos habitudes de mouvement et les techniques de réduction de stress les plus efficaces pour vous. Le résultat serait un coach personnel IA entièrement intégré offrant des « incitations en temps réel » et des recommandations personnalisées.

Thrive AI Health, réduire les maladies chroniques et les inégalités de santé

Les auteurs soulignent que les maladies chroniques, telles que le diabète et les maladies cardiovasculaires, sont réparties de manière inégale entre les différentes populations. Un coach de santé IA hyper-personnalisé pourrait faciliter les changements de comportements sains et les rendre plus accessibles. Ils notent que 129 millions d’Américains vivent avec de telles maladies chroniques et qu’environ 90 % des 4,1 milliards de dollars de dépenses de santé du pays sont consacrés à leur traitement plutôt qu’à leur prévention.

Ils illustrent leur propos avec l’exemple d’un « professionnel occupé souffrant de diabète ». Son coach de santé, formé sur ses données médicales spécifiques, pourrait lui rappeler de prendre ses médicaments, lui proposer des options de repas sains et l’encourager à faire de l’exercice. Ils affirment que « l’utilisation de l’IA de cette manière permettrait également de démocratiser les avantages vitaux de l’amélioration des habitudes quotidiennes et de répondre aux inégalités croissantes en matière de santé ».

Les défis et préoccupations de l’IA en santé

Cependant, il reste à prouver en quoi ces offres sont supérieures aux rappels sur téléphone et aux recherches Google sur les « repas plus sains pour diabétiques », ou du moins suffisamment supérieures pour justifier la prise de risque de partager ses dossiers médicaux personnels avec OpenAI.

Il y a également le problème persistant des « hallucinations » des IA, fournissant parfois des informations incorrectes. Si mettre de la colle sur une pizza peut sembler bénin, une IA qui hallucine en fournissant des conseils médicaux pourrait entraîner des conséquences potentiellement mortelles.

Concurrence et initiatives analogues

Ce n’est pas la première fois que la Silicon Valley tente de créer un coach de santé IA. Onvy propose un produit similaire pour iOS et Android qui fonctionne avec plus de 300 trackers de fitness, Fitbit, filiale de Google, travaille également sur un chatbot IA pour ses wearables, et Whoop offre déjà un coach IA propulsé par ChatGPT pour ses produits.

Faire progresser le système médical grâce à l’IA pourrait être extrêmement bénéfique pour la société, à condition que cela fonctionne réellement. Bien qu’un chatbot qui vous dit de dormir davantage ne soit pas exactement comparable aux remèdes miracles de l’IA, des progrès prometteurs ont été réalisés dans le secteur de la santé grâce à l’IA, comme en témoigne une étude suggérant qu’un radiologue assisté d’un outil d’IA spécialisé peut détecter le cancer du sein à partir d’images de mammographie avec autant de précision que deux radiologues.

Pour Altman et Huffington, le défi consistera à instaurer la confiance dans un produit qui traite certaines de vos informations les plus privées, tout en naviguant dans les limites du pouvoir de l’IA.

Lire plus
Intelligence Artificielle

Apple et Microsoft prennent du recul par rapport à OpenAI

Apple et Microsoft prennent du recul par rapport à OpenAI

À peine une semaine après l’annonce de l’intégration de Phil Schiller d’Apple, en tant qu’observateur non votant au conseil d’administration d’OpenAI, le Financial Times rapporte que Apple et OpenAI ont décidé d’abandonner ce projet afin d’éviter une éventuelle surveillance antitrust. Schiller, qui dirige l’App Store d’Apple et les événements Apple, ainsi que l’ancien chef du marketing de l’entreprise participera à des réunions régulières avec la startup d’IA, aux côtés d’autres partenaires et investisseurs, dont Thrive Capital et Khosla Ventures.

Schiller devait rejoindre le conseil en tant qu’observateur dans le cadre d’un potentiel partenariat entre Apple et OpenAI, dans lequel Apple hébergerait les modèles d’OpenAI via son prochain service Apple Intelligence.

Microsoft a choisi de renoncer à son siège au conseil d’administration d’OpenAI, un poste qu’elle occupait depuis le coup d’État tumultueux de la société d’IA l’année dernière.

Le conseil d’administration d’OpenAI a stupéfié l’industrie en licenciant le PDG Sam Altman à la fin de l’année 2023. Les retombées ont été rapides et graves : Microsoft a embauché Altman et son cofondateur Greg Brockman, et a proposé d’embaucher tous les ingénieurs d’OpenAI qui souhaitaient partir. À la suite d’intenses pressions exercées par les employés de l’entreprise, ainsi que par des personnes extérieures, le conseil d’administration a finalement cédé et a ramené Altman et Brockman.

À la suite de ce coup d’État, la majorité des membres du conseil d’administration ont démissionné et Microsoft a obtenu un siège au conseil d’administration pour l’aider à améliorer sa gouvernance. Le PDG de Microsoft, Satya Nadella, a clairement indiqué à l’époque que le modèle de gouvernance d’OpenAI devait changer.

« À ce stade, je pense qu’il est très clair que quelque chose doit changer au niveau de la gouvernance », a déclaré Nadella en novembre 2023, ajoutant que l’entreprise aurait « un bon dialogue avec son conseil d’administration à ce sujet ».

L’actuel conseil d’administration d’OpenAI compte 8 membres, parmi lesquels l’ancien secrétaire au Trésor des États-Unis, Larry Summers, le PDG d’OpenAI, Sam Altman, et plus récemment, l’ancien directeur de la National Security Agency (NSA), Paul M. Nakasone. Selon Bloomberg, le rôle d’observateur permet à une personne d’assister aux réunions du conseil sans pouvoir voter ni exercer d’autres pouvoirs de directeur. Cependant, les observateurs peuvent acquérir des informations précieuses sur les processus décisionnels de l’entreprise.

Microsoft et son influence grandissante envers OpenAI

Le drame de la salle de conférence de OpenAI étant largement stabilisé, Microsoft renonce maintenant à son siège au conseil d’administration dans le but d’éviter l’examen réglementaire. Étant donné que Microsoft est l’un des principaux donateurs d’OpenAI, qu’elle a conclu un contrat à long terme avec l’entreprise et qu’elle disposait d’un siège au conseil d’administration, l’entreprise de Redmond a manifestement décidé qu’il serait prudent de renoncer à son siège.

« Nous apprécions le soutien manifesté par la direction et le conseil d’administration d’OpenAI lorsque nous avons pris cette décision », a déclaré Microsoft dans une lettre adressée à OpenAI et consultée par Axios. « Comme vous le savez, nous avons accepté le rôle d’observateur du conseil d’administration sans droit de vote à un moment où OpenAI était en train de reconstruire son conseil d’administration », poursuit Microsoft. « Cette position nous a permis de mieux comprendre les activités du conseil d’administration sans compromettre son indépendance, et nous avons apprécié l’opportunité de servir en tant qu’observateur pendant cette période de changement ».

« Au cours des huit derniers mois, nous avons constaté des progrès significatifs de la part du nouveau conseil d’administration et nous sommes confiants dans l’orientation de l’entreprise ». « Étant donné tous ces éléments, nous ne pensons plus que notre rôle limité d’observateur soit nécessaire », a ajouté Microsoft.

Surveillance accrue des régulateurs

Ces décisions interviennent alors que les régulateurs européens et américains intensifient leurs enquêtes sur les potentielles violations des lois antitrust entourant les positions dominantes d’Apple et de Microsoft sur le marché de l’IA, ce qui pourrait évincer les petites entreprises et créer des conditions de monopole pour ces grandes entreprises. Microsoft fait déjà l’objet d’une enquête par les régulateurs américains pour son investissement considérable dans OpenAI, ainsi que par les régulateurs britanniques de la concurrence concernant le siège d’observateur.

En réponse, un représentant d’OpenAI a déclaré au Financial Times : « Bien que notre partenariat avec Microsoft inclue un investissement de plusieurs milliards de dollars, OpenAI reste une entreprise entièrement indépendante gouvernée par l’OpenAI Nonprofit ».

Lire plus
Intelligence Artificielle

Galaxy AI : de nouvelles fonctionnalités dédiées aux Galaxy Z Flip 6 et Z Fold 6

Galaxy AI : de nouvelles fonctionnalités dédiées aux Galaxy Z Flip 6 et Z Fold 6

Samsung vient de dévoiler ses derniers smartphones pliables : le Galaxy Z Fold 6 au format livre et le Galaxy Z Flip 6 au design à clapet. Ces modèles uniques nécessitent un logiciel spécifique, et Samsung est au rendez-vous. C’est pourquoi le géant de la technologie a introduit plusieurs nouvelles fonctionnalités d’intelligence artificielle (IA) spécialement conçues pour les pliables.

La suite Galaxy AI de Samsung, lancée plus tôt cette année avec la série Galaxy S24, a été progressivement étendue à divers smartphones phares Galaxy, y compris les anciens modèles pliables. Cependant, ce n’est qu’à présent qu’elle a été spécifiquement optimisée pour les smartphones pliables.

Explorons donc les nouvelles astuces Galaxy AI que Samsung a concoctées pour ses smartphones pliables.

Galaxy AI special tricks designe jpg

Galaxy Z Fold 6 : des améliorations IA dédiées

Le Galaxy Z Fold 6 regorge de fonctionnalités et d’outils pilotés par l’IA qui tirent le meilleur parti de son grand écran, augmentant ainsi la productivité :

  • Du croquis à l’image : Avec Galaxy AI sur l’écran du Galaxy Z Fold 6, l’expérience du S Pen atteint de nouveaux sommets. La fonctionnalité Du croquis à l’image améliore la créativité en générant des suggestions d’images lorsque vous dessinez ou esquissez directement sur des photos dans Gallery ou sur l’écran Note.
  • Interprète amélioré : Galaxy AI a également amélioré l’accessibilité de la communication sur le Galaxy Z Fold 6. Profitant pleinement de son design à double écran, Interpreter inclut désormais un mode conversation où les deux participants peuvent facilement voir les traductions sur l’écran principal et l’écran de couverture, garantissant des interactions plus fluides et naturelles.
  • Note Assist: Simplifie la prise de notes en réunion avec la traduction, les résumés et le formatage automatique pour une organisation sans effort.
  • Nouvelle fonction de transcription : Vous pouvez transcrire, traduire et résumer des enregistrements vocaux directement dans Notes.
  • Traduction de la superposition de PDF : Traduisez et superposez sans effort les fichiers PDF, assurant un rendu précis des textes, images et graphiques dans les Notes.
  • Composer : Un nouvel ajout au clavier Samsung qui génère des textes suggérés basés sur des mots-clés pour les e-mails et les applications de réseaux sociaux. Adapté aux réseaux sociaux, Composer crée des textes qui reflètent votre ton en analysant vos publications passées.

En outre, la nouvelle application Google Gemini est entièrement intégrée à la dernière série Galaxy Z, offrant votre propre assistant IA directement sur votre téléphone. Il suffit de faire glisser le coin de l’écran ou de dire « Hey Google » pour invoquer l’overlay de Gemini pour une assistance en matière de rédaction, d’apprentissage ou de planification.

Par exemple, en regardant un clip musical sur le grand écran du Galaxy Z Fold 6, vous pouvez accéder à l’overlay de Gemini en mode multi-fenêtre pour poser des questions. Vous vous demandez qui est l’artiste ? Appuyez longuement sur le bouton d’accueil et entourez, surlignez ou tapez sur l’écran — Entourer pour chercher fournira des résultats de recherche immédiats.

003 Galaxy ZFold6 Interpreter Pr jpg

Galaxy Z Flip 6 : L’IA au service du design à clapet

Galaxy AI apporte également des fonctionnalités améliorées au smartphone pliable à clapet, notamment via FlexWindow, permettant des fonctionnalités assistées par l’IA sans déplier l’appareil. Par exemple, vous pouvez répondre aux textes avec Réponses suggérées, qui analyse vos messages récents pour offrir des réponses personnalisées.

De plus, la fonctionnalité Photo Ambient, propulsée par l’IA, permet de personnaliser l’expérience de votre appareil. Cette fonctionnalité change dynamiquement votre fond d’écran en fonction de l’heure et des conditions météorologiques. Elle propose également des options de disposition de l’écran qui complètent votre fond d’écran, comme ajuster la position de l’horloge et la couleur du cadre pour améliorer l’esthétique globale.

Et bien sûr, le Galaxy Z Flip 6 prend également en charge l’application Google Gemini et sa suite complète de fonctionnalités, tout comme son homologue au format livre.

À l’ère de l’IA, Samsung promet de vous donner un plus grand contrôle sur les paramètres de votre appareil. Cela signifie que vous avez toute latitude pour gérer la manière dont vos données améliorent les expériences IA via les paramètres Galaxy AI.

Lire plus
Intelligence Artificielle

Apple Intelligence arrive bientôt, mais il faudra patienter en 2025 pour Siri

Apple Intelligence arrive bientôt, mais il faudra patienter en 2025 pour Siri

Le mois dernier, Apple a officiellement annoncé son plan très attendu pour intégrer l’IA générative dans ses appareils avec l’introduction d’Apple Intelligence. Prévue pour un lancement officiel cet automne, en parallèle avec la série iPhone 16, Apple Intelligence suscite déjà un vif enthousiasme après les démonstrations impressionnantes lors de la WWDC.

L’un des aspects les plus excitants d’Apple Intelligence est son potentiel à révolutionner Siri, en le transformant en une interface plus intuitive et capable. Cependant, les mises à jour tant attendues de Siri ne seront pas disponibles sur les iPhone cet automne. Selon Mark Gurman de Bloomberg, la mise à jour significative de Siri apportée par Apple Intelligence ne sera déployée qu’au printemps 2025.

Gurman a expliqué que les fonctionnalités améliorées de Siri, démontrées par Apple lors de la WWDC, comme le contrôle sans précédent des actions au sein des applications d’Apple, la capacité d’effectuer des tâches complexes entre les applications (comme éditer une photo et l’envoyer à un ami), et la capacité d’anticiper et de suggérer des actions en fonction du contenu à l’écran, ne seront pas prêtes pour le lancement initial d’Apple Intelligence cet automne.

Selon les sources de Gurman, ces fonctionnalités améliorées de Siri devraient entrer en phase de test bêta pour les développeurs en janvier 2025, avec un lancement public prévu au printemps dans le cadre d’une mise à jour iOS 18.4. C’est plus précis qu’Apple ne l’a été — jusqu’à présent, la société a seulement déclaré que les fonctionnalités phares de l’IA seraient disponibles l’année prochaine.

Apple distribue régulièrement ses nouvelles fonctionnalités au coup par coup, par le biais de mises à jour ponctuelles, sur l’ensemble de ses systèmes d’exploitation. Il est donc possible, par exemple, que Siri acquière la capacité (via Apple Intelligence) de faire des choses en votre nom, comme extraire votre carte d’identité de votre bibliothèque de 20 000 photos dans Photos et copier votre numéro de permis de conduire pour le saisir dans un formulaire en ligne, mais peut-être que la génération d’emoji par l’IA ou les fonctions d’aide à l’écriture ne seront pas prêtes pour l’instant. Gurman ne s’exprime pas directement sur ce point, mais il est bon de le garder à l’esprit.

large 2x 1

Vision de l’avenir et concurrence

Ce qui arrivera en premier devrait se préciser au fur et à mesure que les versions bêta d’iOS 18 commenceront à intégrer les fonctionnalités dans le courant de l’année et que la version 18.4 approchera. En attendant, des fonctionnalités telles que l’intégration de ChatGPT, une nouvelle interface Siri qui abandonne l’ancien graphique circulaire pour un arc-en-ciel pulsé à l’intérieur du cadre de l’écran, et une connaissance plus approfondie des produits qui permet à Siri de vous fournir une assistance technique de base sont attendues pour cet automne.

Le bulletin d’information de Gurman mentionne également que la vision d’Apple s’étend au-delà de ses smartphones. L’année prochaine, la société prévoit d’intégrer Apple Intelligence dans le casque Vision Pro. Une autre révélation intéressante du bulletin est la mention d’un robot de table alimenté par l’IA, un projet en développement depuis plusieurs mois, selon Gurman.

Bien qu’Apple ait été en retard dans le domaine de l’IA, son exécution actuelle des fonctionnalités d’IA avec Siri dépasse sans aucun doute les capacités actuelles de l’IA offertes par Google et Samsung dans leurs appareils respectifs. Néanmoins, avec le lancement de la série Pixel 9 dans un peu plus d’un mois, Google pourrait dévoiler ses propres avancées dans le domaine de l’IA.

Siri Apple Intelligence 1 jpg

La compétition pour offrir l’assistant virtuel alimenté par l’IA le plus sophistiqué et convivial s’intensifie, promettant un avenir passionnant pour les consommateurs. Reste à savoir si tout ceci va arriver en Europe ! Pour le moment cela semble être une énième source de conflit entre Apple et l’UE.

Lire plus
Intelligence Artificielle

Paris 2024 : Comment l’IA d’Intel transforme les Jeux Olympiques

Paris 2024 : Comment l’IA d’Intel transforme les Jeux Olympiques

Les Jeux Olympiques de Paris 2024 vont bénéficier d’une révolution technologique grâce à l’intégration de l’IA par Intel, offrant une expérience inédite tant pour les athlètes que pour les spectateurs.

Depuis son implication dans les Jeux d’hiver de PyeongChang 2018, Intel a maintenu son partenariat avec le Comité international olympique (CIO) et servira de partenaire officiel de la plateforme mondiale d’IA pour les Jeux olympiques et paralympiques de Paris 2024. La stratégie d’Intel consiste à fournir des solutions innovantes basées sur l’IA qui enrichiront les expériences des fans, des organisateurs, des athlètes et du public mondial.

Du 26 juillet au 10 août, les Jeux Olympiques de Paris 2024 mettront en vedette des athlètes de 200 pays. En coulisses, Intel utilisera l’IA pour transformer la façon dont les événements sont présentés, en mettant l’accent sur des moments forts et en optimisant l’expérience des participants.

Sarah Vickers, responsable du bureau des Jeux Olympiques et Paralympiques chez Intel, a déclaré que l’IA serait un élément clé de leur stratégie pour ces jeux, reflétant les tendances technologiques actuelles. Vickers dirigera une équipe de plus de 100 employés d’Intel à Paris, dédiés à développer et mettre en œuvre cette stratégie.

En plus de l’engagement avec les athlètes, l’IA d’Intel curera des moments forts et suggérera des sports idéaux aux spectateurs en fonction de leurs préférences. Bien que le chatbot d’Intel, conçu pour interagir avec les participants, ne soit pas encore disponible au grand public, il pourra filtrer et répondre à des questions, tout en signalant celles nécessitant une attention particulière pour des réponses futures.

Des moments forts générés par l’IA pour une couverture améliorée

L’innovation d’Intel permettra une curation automatisée des événements olympiques, facilitant la création de moments forts, même pour des sports moins médiatisés. Grâce à l’auto-label en temps réel, cette technologie permettra une couverture plus étendue et soutiendra les pays disposant de ressources limitées en diffusion. La génération automatique de moments forts des services de diffusion olympique, alimentée par la plateforme Intel Geti, fournira instantanément des moments forts personnalisés, rationalisant ainsi les processus de production et de montage.

Les Jeux Olympiques de 2024 marqueront également le début d’une diffusion en direct en 8K alimentée par des processeurs Intel Xeon. Cette technologie permettra de diffuser en direct en 8K avec une latence minimale, offrant aux téléspectateurs une expérience de visionnage en haute résolution. Cette innovation établit une nouvelle norme pour la diffusion des événements sportifs du futur.

En partenariat avec Samsung, Intel introduira un système avancé d’identification des talents basé sur l’IA. Utilisant des smartphones et tablettes Samsung dotés de capacités de vision par ordinateur, ce système observera les performances des athlètes pour déterminer leur aptitude à différents sports olympiques. Ce programme, testé initialement au Sénégal, a évalué les compétences de 1000 enfants pour identifier de futurs athlètes pour les Jeux Olympiques de la Jeunesse en 2026.

Lire plus