fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

ChatGPT Operator : L’agent IA d’OpenAI enfin disponible, mais critiques au lancement

ChatGPT Operator : L'agent IA d'OpenAI enfin disponible, mais critiques au lancement

OpenAI a officiellement lancé Operator, son nouvel outil d’agent AI, sous forme de « recherche en avant-première ». Basé sur le modèle GPT-4o, cet agent informatique (Computer Using Agent — CUA) se distingue par ses capacités multimodales, notamment la recherche Web avancée et la compréhension des résultats pour effectuer des tâches complexes. Toutefois, ce lancement n’est pas exempt de critiques et de limites.

Operator a été conçu pour aller au-delà des capacités classiques des chatbots comme ChatGPT. En plus d’exécuter des tâches complexes, il peut rechercher, cliquer, faire défiler des pages et interagir avec des interfaces Web. Lors d’une démonstration en ligne, OpenAI a mis en avant des fonctionnalités fascinantes, telles que la capacité d’interpréter et de répondre en fonction du contexte des recherches effectuées.

Cependant, cet enthousiasme a été tempéré par les retours des premiers utilisateurs.

Les premières critiques : Bugs et problèmes de performances

Plusieurs utilisateurs ayant testé Operator ont signalé des bugs et des incohérences par rapport à la fluidité observée lors de la démonstration. Parmi les problèmes évoqués :

  • Temps de réponse lent, ce qui rend l’outil moins pratique dans un usage en temps réel.
  • Hallucinations similaires à celles observées avec ChatGPT, où l’agent fournit des réponses incorrectes ou inventées.

Un utilisateur sur X a mentionné des erreurs lors de l’interaction d’Operator avec un site d’actualités, attirant l’attention du CEO d’OpenAI, Sam Altman, qui a promis une correction rapide. Cependant, certains problèmes pourraient être liés à des hallucinations générées par l’IA elle-même.

Un coût élevé qui limite l’accessibilité

L’un des principaux obstacles à l’adoption d’Operator est son prix élevé. L’outil est actuellement disponible via l’abonnement ChatGPT Pro à 200 dollars par mois, rendant l’accès réservé à une niche d’utilisateurs.

Des abonnés à ChatGPT Plus, qui coûte 20 dollars par mois, ont exprimé leur frustration face à ce prix prohibitif. Selon OpenAI, Operator pourrait être inclus à l’avenir dans les offres Plus, Team et Enterprise, rendant l’outil plus accessible.

Disponibilité géographique restreinte

Actuellement, Operator est exclusivement disponible aux États-Unis, ce qui a suscité des critiques de la part des utilisateurs européens, qui se sentent exclus. Cette restriction géographique pourrait limiter l’adoption mondiale de l’outil, surtout dans un contexte où la concurrence pour les agents AI s’intensifie.

Comme le souligne ComputerWorld, les agents IA comme Operator posent des risques de sécurité uniques :

  • Ils pourraient être exploités pour des attaques automatisées, comme la surcharge de trafic ou le contournement des systèmes CAPTCHA.
  • Ces outils risquent de perturber les moteurs de recherche existants, comme Google, dont les algorithmes et stratégies de traitement des données pourraient entrer en conflit avec des actions automatiques d’agents AI.

Bien qu’OpenAI affirme avoir renforcé la sécurité d’Operator, des chercheurs estiment que des failles pourraient subsister, en particulier dans des environnements automatisés complexes.

Malgré les défis initiaux, Operator représente une avancée majeure dans l’univers des agents IA. Avec le temps, OpenAI pourrait améliorer les performances, élargir l’accès international, et ajuster son modèle économique pour attirer un public plus large. Mais pour l’instant, le coût élevé et les problèmes techniques freinent son adoption.

Alors que d’autres acteurs majeurs, comme Google et Microsoft, intensifient leurs efforts dans ce domaine, OpenAI devra travailler dur pour maintenir son avance et répondre aux attentes des utilisateurs.

Lire plus
Intelligence Artificielle

OpenAI o3-mini : Disponibles pour tous les utilisateurs de ChatGPT !

OpenAI o3-mini : Disponibles pour tous les utilisateurs de ChatGPT !

Cette semaine, Sam Altman, PDG d’OpenAI, a annoncé que le dernier modèle de raisonnement de la société, o3, avait passé avec succès ses tests de sécurité externes et était prêt à être déployé. Ce modèle sera bientôt disponible sous forme d’API et intégré en tant qu’option dans ChatGPT.

En parallèle, Altman a confirmé via les réseaux sociaux que la version allégée, o3-mini, ne serait pas réservée aux abonnés payants (Plus, Teams, et Pro), mais serait également accessible aux utilisateurs gratuits.

Qu’est-ce que le modèle o3 ?

Le modèle o3, successeur du modèle o1, fonctionne différemment des modèles génératifs traditionnels, tels que GPT-4o Turbo, actuellement utilisé pour les abonnés payants de ChatGPT. Les modèles de raisonnement comme o1 et o3 intègrent des vérifications internes de faits et de raisonnements avant de répondre aux requêtes des utilisateurs.

Bien que cela rallonge le temps de réponse, cela permet une plus grande précision et une reproductibilité accrue, en rendant ces modèles particulièrement performants pour des tâches complexes en mathématiques, sciences et codage.

o3-mini : Une version allégée, mais puissante

La version o3-mini est un modèle réduit et plus léger du modèle o3 complet. Moins volumineux que GPT-4o Turbo, il offre des temps de réponse plus rapides et réduit les besoins en calcul, tout en maintenant un haut niveau de performance.

Alors qu’OpenAI réserve généralement ses modèles les plus avancés aux abonnés payants et utilise des modèles de génération précédents pour les utilisateurs gratuits, l’accès au o3-mini pour tous les utilisateurs gratuits constitue un changement notable dans la stratégie de l’entreprise.

Accès différencié pour les abonnés payants

Les utilisateurs des abonnements Plus, Teams et Pro auront toujours accès à GPT-4o Turbo en plus de o3-mini. Comme l’a déclaré Altman, ces abonnés profiteront également d’un accès accru à o3-mini. Les comptes payants Plus (20 dollars par mois) et Pro (200 dollars par mois) continueront d’avoir des avantages exclusifs, comme des fonctionnalités supplémentaires telles que le mode vocal avancé.

Une avancée prometteuse, mais une date encore floue

OpenAI avait initialement présenté le modèle o3 lors du dernier jour de son événement 12 Days of OpenAI en décembre dernier. Greg Brockman, président et cofondateur de l’entreprise, l’avait alors décrit comme une « percée majeure avec une amélioration significative sur les benchmarks les plus difficiles ».

Bien que la confirmation de l’arrivée de o3-mini pour tous les utilisateurs soit désormais officielle, OpenAI n’a pas encore précisé la date exacte de disponibilité. En tout cas, cette évolution marque une nouvelle étape dans l’objectif de l’entreprise de rendre l’IA avancée accessible à un plus large public.

Lire plus
Intelligence Artificielle

Claude : Voix et mémoire pour le chatbot d’Anthropic !

Claude : Voix et mémoire pour le chatbot d'Anthropic !

Le chatbot développé par Anthropic, Claude, est sur le point de recevoir des mises à jour majeures visant à enrichir son interaction avec les utilisateurs. Dario Amodei, PDG d’Anthropic, a détaillé ces plans lors du World Economic Forum de Davos, évoquant notamment un mode vocal et une fonction mémoire qui devraient transformer Claude en un assistant encore plus avancé.

Anthropic prévoit d’introduire un mode vocal bidirectionnel qui permettra aux utilisateurs de parler directement à Claude et de recevoir des réponses vocales en retour. Ce changement rapproche Claude des assistants vocaux traditionnels comme Alexa ou Siri, tout en bénéficiant de l’intelligence plus avancée de l’IA conversationnelle.

Cette fonctionnalité vise à rendre les interactions plus fluides et accessibles, en facilitant les conversations sans les mains. Cependant, cette évolution soulève des questions, notamment sur les risques de rendre l’IA trop « humaine » au téléphone, ou sur les scénarios où Claude pourrait être perçu comme une véritable entité personnelle.

Une mémoire pour des interactions personnalisées avec Claude

En plus du mode vocal, Anthropic ajoutera une fonction mémoire à Claude. Cela permettra au chatbot de se souvenir des conversations précédentes avec chaque utilisateur. Par exemple, si vous partagez votre passion pour un sujet particulier ou mentionnez vos livres préférés, Claude pourra les rappeler dans les discussions futures, créant ainsi une expérience plus personnalisée.

Bien que cette fonctionnalité ouvre la porte à des échanges plus riches et contextualisés, elle pose également des défis. Que se passe-t-il si l’IA mélange des informations erronées à ses « souvenirs » en raison de ce que l’on appelle des hallucinations d’IA ? La gestion de ces souvenirs sera essentielle pour maintenir la fiabilité du chatbot.

La demande explosive pour Claude et la stratégie d’Anthropic

Dario Amodei a également souligné que la demande pour l’intelligence artificielle, et Claude en particulier, a explosé au cours de l’année écoulée. Cela a poussé les infrastructures de calcul d’Anthropic à leurs limites. Avec des acteurs majeurs comme OpenAI et Google intégrant leurs chatbots (ChatGPT et Gemini) dans divers produits et services, Anthropic doit trouver des moyens de se démarquer.

Les nouvelles fonctionnalités de Claude, notamment sa voix et sa mémoire, visent précisément à lui donner un avantage compétitif. En rendant le chatbot plus humain et interactif, Anthropic espère attirer les utilisateurs déjà séduits par ses concurrents.

Les évolutions prévues pour Claude semblent s’inscrire dans une tendance plus large qui vise à brouiller la ligne entre les outils d’assistance et les compagnons numériques. En donnant une voix et une mémoire à Claude, Anthropic positionne son IA comme une solution non seulement fonctionnelle, mais aussi émotionnellement engageante.

Cette stratégie soulève toutefois des questions sur les implications éthiques et les responsabilités des entreprises développant des IA toujours plus « humaines ». Mais une chose est sûre : Claude, avec ces nouvelles fonctionnalités, pourrait bien redéfinir les standards de l’interaction homme-machine.

Lire plus
Intelligence Artificielle

Operator : l’IA d’OpenAI qui navigue et agit pour vous est lancée !

Operator : l'IA d'OpenAI qui navigue et agit pour vous est lancée !

OpenAI a dévoilé une version de recherche de son tout nouvel agent d’IA baptisé Operator, conçu pour accomplir des tâches en ligne à votre place.

Annoncé dans un article de blog officiel, Operator utilise un navigateur intégré pour consulter des pages Web et interagir avec elles, en utilisant des actions telles que taper, cliquer et faire défiler. Dans un premier temps, cette fonctionnalité est disponible uniquement aux États-Unis pour les abonnés au forfait ChatGPT Pro, facturé 200 dollars par mois.

Comment fonctionne Operator ?

Operator s’appuie sur un modèle appelé Computer-Using Agent, combinant les capacités de vision de GPT-4o avec un raisonnement avancé obtenu par apprentissage par renforcement. Grâce à cette technologie, l’agent peut :

  • « Voir » des captures d’écran des pages web.
  • Interagir directement avec les interfaces utilisateur graphiques (GUI) en utilisant des actions similaires à celles d’une souris et d’un clavier.

Contrairement aux intégrations API classiques, Operator fonctionne comme un utilisateur humain, sans nécessiter de personnalisation pour chaque site web.

Principales fonctionnalités

  • Raisonnement et auto-correction : Operator peut analyser ses actions et se corriger en cas d’erreur.
  • Intervention de l’utilisateur : Lorsqu’un site demande des informations sensibles (comme des identifiants de connexion), Operator sollicite l’utilisateur pour effectuer ces actions. Il en va de même pour les tâches critiques, comme envoyer un e-mail.
  • Refus des demandes inappropriées : OpenAI a intégré des mécanismes pour bloquer les contenus nuisibles et refuser les requêtes allant à l’encontre des règles éthiques.

Partenariats et domaines d’application

OpenAI collabore avec plusieurs grandes entreprises, notamment DoorDash, Instacart, OpenTable, Priceline, StubHub, Thumbtack, et Uber. Ces partenariats visent à répondre à des besoins concrets, comme réserver des restaurants via OpenTable, commander des courses sur Instacart ou encore réserver des trajets avec Uber.

Cependant, OpenAI précise que certains processus complexes, comme la création de diaporamas ou la gestion de calendriers, peuvent encore poser des défis à Operator.

Bien qu’encore en phase expérimentale, OpenAI prévoit d’élargir la disponibilité d’Operator aux abonnés des forfaits Plus, Team, et Enterprise. L’objectif ultime est d’intégrer ces capacités directement dans ChatGPT, rendant l’agent accessible à un plus grand nombre d’utilisateurs.

Avec Operator, OpenAI entend révolutionner l’interaction avec l’IA en offrant un assistant capable de simplifier la navigation et les tâches en ligne. Cependant, comme tout outil innovant, son efficacité et sa sécurité feront l’objet d’une surveillance accrue, notamment en ce qui concerne la gestion des données sensibles et l’adhérence aux normes éthiques.

Lire plus
Intelligence Artificielle

Project Stargate : OpenAI investit 500 milliards de dollars dans l’IA !

Project Stargate : OpenAI investit 500 milliards de dollars dans l'IA !

OpenAI a lancé Project Stargate, une initiative ambitieuse visant à transformer l’infrastructure de l’intelligence artificielle (IA) à l’échelle nationale.

Avec un investissement colossal de 500 milliards de dollars, ce projet marque un tournant dans le développement de l’IA, visant à positionner les États-Unis en tant que leader mondial dans ce domaine tout en stimulant l’économie et renforçant la sécurité nationale.

Voici un aperçu détaillé des ambitions, des implications et des défis de ce projet révolutionnaire.

Une transformation massive de l’infrastructure IA

Le cœur de Project Stargate réside dans le déploiement d’une infrastructure IA de pointe à travers les États-Unis :

  • Première étape : Construction d’un centre de recherche de 100 milliards de dollars au Texas, prévu pour devenir le principal hub d’innovation en IA.
  • Plan sur 10 ans : Investir 400 milliards de dollars supplémentaires pour établir un réseau national de centres d’innovation en IA.

Ces installations devraient générer des milliers d’emplois hautement qualifiés, revitalisant les régions historiquement industrielles et favorisant la réindustrialisation du pays. Cette initiative va au-delà de l’innovation technologique : elle répond à une demande croissante en IA tout en renforçant la souveraineté technologique américaine.

Collaborations stratégiques avec des partenaires clés

Le succès de Project Stargate repose sur des partenariats solides avec des leaders de l’industrie :

  • SoftBank : Soutien financier massif et expertise stratégique en IA.
  • Oracle, MGX et ARM : Gestion des données, technologies des semi-conducteurs, et logistique opérationnelle.
  • Nvidia : Fourniture de processeurs graphiques avancés pour la recherche en IA.
  • Microsoft Azure : Ressources de cloud computing, bien qu’OpenAI diversifie ses collaborations.

Ces alliances soulignent l’importance de la collaboration intersectorielle pour relever les défis complexes du développement de l’IA.

Objectifs stratégiques et implications globales

Project Stargate ne se limite pas à l’infrastructure. Il s’inscrit dans une vision stratégique visant à :

  1. Avancer vers l’intelligence artificielle générale (AGI), capable d’accomplir toute tâche intellectuelle humaine.
  2. Redéfinir les dynamiques géopolitiques en maintenant l’avance des États-Unis dans la course mondiale à l’IA.
  3. Répondre aux défis éthiques et sociétaux, tels que :
    • Aligner l’AGI sur les valeurs humaines.
    • Préparer les marchés du travail à d’éventuelles perturbations.
    • Éviter les risques liés à l’évolution vers une intelligence artificielle superintelligente (ASI).

Historiquement, OpenAI s’est appuyé sur Microsoft Azure, mais Project Stargate marque un tournant. Bien que Microsoft conserve un droit de premier refus sur les nouveaux accords de capacité, OpenAI diversifie ses partenariats pour réduire sa dépendance et stimuler l’innovation par la concurrence.

Cette stratégie reflète une tendance industrielle vers la décentralisation, favorisant une résilience accrue dans le secteur de l’IA.

Défis et considérations éthiques

Malgré ses ambitions, Project Stargate soulève des questions fondamentales :

  • Alignement et sécurité : Comment garantir que l’AGI respecte les intentions humaines ?
  • Surveillance éthique : Quels cadres peuvent empêcher une mauvaise utilisation de ces technologies ?
  • Impact sur la société : Comment préparer les secteurs touchés par une adoption massive de l’IA ?

La possibilité que l’AGI évolue vers une ASI introduit également des risques existentiels, notamment en matière de gouvernance et de contrôle.

L’intensification de la course mondiale à l’IA

Project Stargate reflète la compétition féroce entre les nations pour dominer l’innovation en IA. L’AGI est souvent perçue comme une technologie clé pouvant redéfinir les relations internationales.

Pour les États-Unis, cette initiative représente une chance de maintenir leur leadership technologique, aligner les progrès de l’IA sur des valeurs démocratiques et de réduire la dépendance envers les chaînes d’approvisionnement étrangères.

Avec Project Stargate, OpenAI ne se contente pas de repousser les limites de la technologie. L’initiative vise à redéfinir le rôle des États-Unis dans l’économie mondiale, tout en abordant des questions éthiques complexes.

Ce projet représente un équilibre délicat entre innovation rapide et développement responsable, posant les bases d’une transformation sociétale majeure.

Lire plus
Intelligence Artificielle

ChatGPT Operator : L’IA qui gère vos tâches quotidiennes arrive !

ChatGPT Operator : L'IA qui gère vos tâches quotidiennes arrive !

Après des mois d’attente, il semblerait que OpenAI soit enfin prête à lancer ChatGPT Operator, une nouvelle fonctionnalité qui promet de transformer la manière dont nous interagissons avec l’intelligence artificielle.

Selon un récent rapport de The Information, cet agent IA pourrait arriver dès cette semaine, offrant des capacités d’automatisation avancées directement intégrées à ChatGPT.

Qu’est-ce que ChatGPT Operator ?

ChatGPT Operator est un agent IA conçu pour automatiser des tâches quotidiennes que les utilisateurs effectuent habituellement manuellement via un navigateur Web. Que ce soit pour réserver des vacances, trouver un restaurant ou faire des achats en ligne, Operator vise à déléguer ces tâches à l’IA afin de simplifier votre quotidien.

Voici comment cela pourrait fonctionner :

  1. Catégories de tâches : Operator proposera des catégories comme « restaurants », « événements », « achats et « voyages ».
  2. Suggestions de prompts : Dans chaque catégorie, des suggestions guideront les utilisateurs pour formuler leurs demandes.
  3. Affichage en temps réel : Une fenêtre miniature s’ouvrira dans l’interface de ChatGPT, affichant le navigateur en temps réel et les actions que l’agent réalise.
  4. Questions de suivi : L’IA posera des questions pertinentes pour compléter la tâche, par exemple : « À quelle heure et pour combien de personnes souhaitez-vous réserver ? ».
  5. Contrôle manuel : Les utilisateurs pourront reprendre la main à tout moment, garantissant que l’IA reste sous contrôle et répond à leurs attentes.

Pourquoi est-ce important ?

Si Operator tient ses promesses, cette fonctionnalité pourrait révolutionner l’automatisation des tâches en permettant aux utilisateurs de se concentrer sur des priorités plus importantes pendant que l’IA gère les tâches répétitives.

OpenAI a également misé sur la transparence en affichant les actions de l’agent en temps réel via le navigateur intégré. Cela donne aux utilisateurs une meilleure visibilité sur les décisions prises par l’IA et leur permet d’intervenir si nécessaire, dissipant ainsi les inquiétudes sur les « dérapages » de l’intelligence artificielle.

La concurrence dans le domaine des agents IA

OpenAI n’est pas seul sur ce terrain. L’année dernière, Google a accidentellement révélé son Jarvis AI, et des rumeurs indiquent que Gemini, son propre agent IA, pourrait être lancé dès 2025. La course à la domination dans le domaine des agents IA s’intensifie, et Operator pourrait donner une avance significative à OpenAI.

Selon The Information, Operator pourrait être dévoilé avant la fin de la semaine, ce qui signifie que les utilisateurs pourraient utiliser cette fonctionnalité dès ce week-end. Il est également probable qu’elle soit intégrée à l’application ChatGPT pour Mac, élargissant ainsi son accessibilité.

Bien que les fenêtres de lancement puissent varier, le timing semble idéal pour OpenAI. Si Operator fonctionne comme prévu, il pourrait redéfinir notre manière d’interagir avec l’IA, que ce soit pour réserver un vol vers Cancún ou organiser un dîner entre amis.

Qu’attendre de ChatGPT Operator ?

Cette fonctionnalité pourrait devenir un nouveau standard pour l’automatisation, combinant praticité, personnalisation et contrôle. Avec la possibilité de confier des tâches complexes à une IA tout en surveillant son exécution, Operator pourrait séduire autant les utilisateurs curieux que les sceptiques.

Que pensez-vous de l’idée de laisser une IA gérer vos tâches quotidiennes ?

Lire plus
Intelligence Artificielle

Google Gemini s’améliore sur votre smartphone Android

Google Gemini s'améliore sur votre smartphone Android

Lors de l’événement Galaxy Unpacked 2025, Samsung a dévoilé ses nouveaux smartphones phares — Galaxy S25, S25+, et Galaxy S25 Ultra —, marquant un tournant important avec l’intégration de Google Gemini comme assistant par défaut.

Cette annonce s’accompagne de mises à jour significatives pour Gemini et la fonctionnalité Entourer pour chercher, élargissant les capacités d’intelligence artificielle disponibles sur Android.

Gemini remplace Bixby sur les Galaxy S25

Avec le lancement de la série Galaxy S25, Gemini devient l’assistant virtuel par défaut sur les appareils Samsung, reléguant Bixby dans le tiroir des applications. Un appui long sur le bouton latéral active désormais Gemini, facilitant un accès rapide à ses fonctionnalités avancées. Bixby reste accessible pour ceux qui souhaitent l’utiliser, mais ce changement marque un virage décisif pour Samsung, qui mise sur la puissance de l’écosystème Google.

Des actions inter-applications simplifiées avec Gemini

La mise à jour de Gemini permet désormais d’exécuter des tâches complexes à travers plusieurs applications en une seule commande. Par exemple, vous pouvez demander à Gemini de trouver un restaurant italien acceptant les chiens et d’envoyer les informations à un ami, ou de rechercher les prochains matchs de votre équipe de Ligue 1 et de les ajouter à votre calendrier.

 

Cette intégration repose sur les extensions d’applications existantes de Gemini, couvrant des applications Google comme YouTube, Maps, Gmail, et des options tierces, telles que WhatsApp et Spotify. Sur les Galaxy S25, Gemini s’intègre désormais aussi aux applications Samsung, comme Calendrier, Notes, Rappels, et Horloge, renforçant l’expérience utilisateur sur ces appareils.

Gemini Live : une interaction enrichie avec des multimédias

Le mode conversationnel Gemini Live reçoit une mise à jour majeure, permettant de partager des images, fichiers, et même des vidéos YouTube directement dans l’interface. Vous pouvez demander à Gemini des commentaires sur une photo ou des informations supplémentaires sur une vidéo. Par exemple, si vous partagez une photo d’un chien, Gemini peut évaluer la composition ou fournir des détails contextuels.

samsungunpacked geminilive2 ezgif com video to gif converter anim

Cette fonctionnalité est disponible exclusivement sur les Galaxy S24, Galaxy S25, et Pixel 9, mais Google prévoit d’étendre ces capacités à d’autres appareils Android dans les mois à venir. Par ailleurs, des fonctionnalités issues du Project Astra, comme le partage d’écran et la diffusion vidéo en direct, arriveront bientôt sur Android.

Améliorations de Entourer pour chercher

Entourer pour chercher, la fonctionnalité de recherche visuelle introduite l’année dernière, bénéficie de mises à jour importantes. Elle peut désormais :

  • Reconnaître automatiquement des numéros de téléphone, adresses email, et URL, permettant d’interagir avec ces informations d’un simple clic.
  • Générer des résumés contextuels pour une variété d’images, qu’il s’agisse de lieux, d’œuvres d’art ou d’objets.

Ces améliorations augmentent la portée de Entourer pour chercher et renforcent son utilité dans les recherches visuelles.

Accessibilité améliorée sur Android

Google a également annoncé des améliorations pour les utilisateurs d’aides visuelles et auditives. La nouvelle mise à jour facilite le couplage des lecteurs d’écran en braille et des aides auditives avec les appareils Android, élargissant encore l’inclusivité de la mobilité multifonction.

En marge des annonces sur les Galaxy S25, Samsung et Google ont également présenté un mode Galaxy Watch pour enfants. Disponible sur la Galaxy Watch 7 LTE, ce mode inclut des applications adaptées, des cadrans personnalisés pour les enfants, et des contrôles parentaux renforcés.

Avec l’intégration de Gemini, Samsung transforme la série Galaxy S25 en un véritable hub d’intelligence artificielle. Entre les nouvelles fonctionnalités multimodales, les actions inter-applications, et les améliorations de Entourer pour chercher, Samsung et Google ouvrent la voie à une expérience utilisateur plus fluide et personnalisée.

Lire plus
Intelligence Artificielle

Microsoft et OpenAI : Un partenariat plus ouvert et flexible

Microsoft et OpenAI : Un partenariat plus ouvert et flexible

Microsoft et OpenAI ont annoncé mardi une révision majeure de leur partenariat, permettant à OpenAI d’accéder à l’infrastructure cloud de concurrents pour ses besoins en calcul intensif. Cette évolution marque un changement significatif dans leur collaboration tout en maintenant les fondements de leur relation.

Changements clés dans le partenariat entre Microsoft et OpenAI

Concernant l’accès à d’autres fournisseurs de calcul, OpenAI pourra désormais utiliser des infrastructures autres qu’Azure, avec un droit de premier refus (ROFR) pour Microsoft sur toute nouvelle capacité. Microsoft a également approuvé qu’OpenAI construise des capacités supplémentaires, principalement dédiées à la recherche et à l’entraînement de modèles d’IA.

Du côté du maintien des exclusivités stratégiques, Microsoft conserve l’exclusivité pour intégrer la technologie d’OpenAI dans ses produits, comme Copilot. De plus, les API d’OpenAI resteront exclusivement disponibles via la plateforme Azure.

Enfin, concernant le modèle de partage des revenus entre les deux entreprises, Microsoft recevant environ 20 % des revenus d’OpenAI, demeure inchangé.

Contexte et raisons du changement

  • Demande croissante en calcul :
    • OpenAI a des besoins massifs en calcul pour développer et déployer ses modèles d’IA, avec des investissements s’élevant à plusieurs milliards de dollars.
    • Certains actionnaires d’OpenAI auraient exprimé des préoccupations sur la capacité de Microsoft à répondre rapidement à cette demande, menant OpenAI à collaborer avec Oracle en juin dernier pour des capacités supplémentaires.
  • Pressions financières et tensions internes :
    • Le partenariat a été mis sous pression par les défis financiers d’OpenAI et des divergences stratégiques.
    • Le recrutement par Microsoft de Mustafa Suleyman, PDG d’Inflection AI, et de son équipe pour 650 millions de dollars en mars dernier, aurait provoqué des tensions avec la direction d’OpenAI, notamment avec son PDG Sam Altman.

Projet Starbase et collaboration élargie

En parallèle, Microsoft, OpenAI, Nvidia, Oracle, et Arm collaborent sur Starbase, un projet de centres de données aux États-Unis visant à soutenir les besoins massifs en calcul des modèles d’IA de nouvelle génération.

Le partenariat inclut une clause inhabituelle liée à la création d’une intelligence artificielle générale (AGI). Cette clause permettrait à OpenAI de limiter l’accès de Microsoft aux modèles les plus avancés développés après l’atteinte de l’AGI, définie comme une IA générant plus de 100 milliards de dollars de profits.

Initialement prévue pour limiter la commercialisation de technologies trop puissantes, cette clause est désormais remise en question par OpenAI, possiblement pour obtenir un financement supplémentaire de Microsoft.

Ces ajustements visent à renforcer la capacité d’OpenAI à répondre à ses besoins croissants tout en maintenant une collaboration étroite avec Microsoft. En parallèle, la flexibilité accrue permet à OpenAI de diversifier ses sources de calcul pour accélérer ses ambitions, notamment dans la course à l’AGI. 2025 s’annonce comme une année charnière pour cette alliance stratégique dans l’IA.

Lire plus
Intelligence Artificielle

Operator : l’agent IA d’OpenAI bientôt sur Mac ?

Operator : l'agent IA d'OpenAI bientôt sur Mac ?

L’introduction des agents d’intelligence artificielle (IA), capables de réaliser des tâches complexes de manière autonome sur nos appareils, est annoncée comme l’une des plus grandes avancées en 2025. Ces agents pourraient révolutionner nos interactions avec nos ordinateurs et smartphones, en les transformant en véritables assistants intelligents capables d’exécuter des instructions sans intervention humaine directe.

OpenAI travaille depuis un moment sur Operator, son premier agent d’IA. Une nouvelle fuite de code laisse entendre que ce dernier pourrait bientôt arriver sur l’application ChatGPT pour Mac.

L’informateur Tibor Blaho a partagé des détails intéressants sur X (anciennement Twitter).

Des options cachées dans le lanceur de l’application Mac mentionnent « Toggle Operator » (activer/désactiver Operator) et « Force Quit Operator » (forcer la fermeture d’Operator). Cela suggère que Operator pourrait avoir besoin d’être arrêté rapidement en cas de comportement problématique.

Dans la version Web de ChatGPT, Blaho a également découvert des références à des éléments liés à Operator :

  • « Operator System Card Table »
  • « Operator Research Eval Table »
  • « Operator Refusal Rate Table »

Cette dernière mention semble indiquer que l’agent a parfois du mal à exécuter certaines tâches, nécessitant un suivi de son taux d’échec.

Un potentiel énorme pour automatiser les tâches quotidiennes

L’agent Operator promet de simplifier des tâches complexes et répétitives, telles que :

  • Réserver des hôtels ou des billets d’avion,
  • Payer des factures en ligne,
  • Écrire et déboguer du code.

Cette capacité à automatiser les tâches pourrait changer radicalement notre manière d’interagir avec les appareils, en libérant du temps pour des activités plus importantes.

La sécurité en ligne de mire

Le lancement des agents IA soulève des préoccupations majeures :

  • Confiance et sécurité : Les utilisateurs devront avoir confiance dans la capacité de l’IA à gérer leurs informations sensibles.
  • Confidentialité : Les agents devront protéger les données personnelles tout en exécutant des tâches autonomes.

Récemment, Wojciech Zaremba, cofondateur d’OpenAI, a critiqué la société concurrente Anthropic pour avoir lancé un agent IA sans les précautions de sécurité nécessaires. Selon lui, un tel lancement de la part d’OpenAI aurait provoqué des réactions négatives.

Ce que cela signifie pour l’avenir

La sortie d’Operator pourrait être un tournant majeur pour OpenAI et pour les utilisateurs de Mac, ouvrant la voie à une nouvelle ère d’automatisation grâce à l’IA. Cependant, pour que ces agents soient adoptés massivement, ils devront prouver qu’ils sont fiables, sécurisés et qu’ils respectent les données privées des utilisateurs.

Les rumeurs indiquent qu’Operator pourrait arriver très bientôt. Si elles se confirment, il pourrait transformer la manière dont nous gérons nos tâches numériques au quotidien. Affaire à suivre !

Lire plus
Intelligence Artificielle

OpenAI o3 mini : L’IA plus rapide et intelligente arrive !

OpenAI o3 mini : L'IA plus rapide et intelligente arrive !

OpenAI continue de renforcer sa position dans le domaine de l’intelligence artificielle avec le lancement officiel de son nouveau modèle OpenAI o3 mini. Cette annonce a été faite par le PDG Sam Altman sur X (anciennement Twitter).

Disponible à la fois sur ChatGPT et en tant qu’API pour les développeurs, ce modèle est une version plus compacte du modèle o3, lui-même une amélioration du modèle o1 lancé l’année dernière.

Le modèle o3 mini incarne un équilibre entre puissance et efficacité, répondant aux besoins des utilisateurs souhaitant bénéficier d’une IA avancée sans opter pour des versions trop robustes. Voici ce que nous savons sur cette mise à jour et pourquoi elle pourrait changer la donne.

o3 mini, un modèle compact, mais puissant

La série o1, lancée en 2024, avait été conçue pour se concentrer sur une meilleure résolution des problèmes complexes, en prenant davantage de temps pour traiter les requêtes. Avec la série o3, OpenAI promet une IA plus rapide, plus intelligente et plus performante, tout en optimisant les ressources nécessaires pour son fonctionnement.

Le modèle o3 mini est ainsi présenté comme une version plus légère, mais tout aussi performante, visant à améliorer l’accessibilité et l’expérience utilisateur.

Le modèle o3 mini introduit des capacités de raisonnement améliorées, qui le rendent particulièrement adapté à des fonctionnalités récentes, comme Tasks de ChatGPT. Cette fonctionnalité permet à l’IA de jouer un rôle plus proactif en planifiant et en rappelant les tâches et événements, offrant ainsi une aide encore plus personnalisée.

Un avantage stratégique dans une concurrence féroce

Avec des concurrents tels que Google et Meta intensifiant leurs efforts pour dominer le marché de l’IA, OpenAI cherche à maintenir son avance. Le lancement du modèle o3 mini semble être une réponse directe à cette pression croissante.

Ce modèle a pour objectif de séduire un public qui attend de l’IA non seulement qu’elle suive les règles, mais qu’elle fasse preuve de pensée critique et de flexibilité. En offrant des performances avancées dans un format réduit, OpenAI espère attirer des utilisateurs recherchant une IA sophistiquée, mais accessible.

Des perspectives pour l’avenir de l’IA

L’arrivée du modèle o3 mini pose une question essentielle : cette évolution changera-t-elle la manière dont l’IA est utilisée, ou se contentera-t-elle d’apporter des améliorations marginales ? Avec des rumeurs évoquant un ralentissement des progrès dans le développement de modèles IA chez certains concurrents, OpenAI semble déterminé à maintenir un rythme soutenu.

Pour de nombreux utilisateurs, le modèle o3 mini pourrait devenir l’équilibre parfait entre innovation et accessibilité. En offrant des capacités de raisonnement avancées à un public plus large, OpenAI espère consolider sa place de leader sur le marché de l’IA conversationnelle.

Une IA plus flexible pour divers besoins

Le modèle o3 mini ne se limite pas à un simple rôle d’assistant conversationnel : il vise également les utilisateurs professionnels et développeurs recherchant des outils plus sophistiqués pour leurs besoins spécifiques. Avec cette nouvelle génération d’IA, OpenAI ambitionne de répondre aux attentes des utilisateurs, qu’il s’agisse d’améliorer la productivité, de faciliter la gestion des tâches ou d’offrir des réponses plus précises et nuancées.

Le lancement du modèle OpenAI o3 mini marque une étape importante dans la stratégie d’OpenAI pour maintenir sa position dominante dans l’IA. Avec des performances accrues et une accessibilité renforcée, ce modèle pourrait séduire à la fois les utilisateurs habituels de ChatGPT et les développeurs en quête d’une IA avancée.

Alors que la concurrence dans le domaine de l’intelligence artificielle devient de plus en plus féroce, ce modèle pourrait bien être l’atout qu’il manquait à OpenAI pour conserver son avance. Restez à l’écoute pour découvrir comment le modèle o3 mini transformera l’avenir des applications IA.

Lire plus
Intelligence Artificielle

Zoom Team Chat : IA, organisation et productivité au rendez-vous !

Zoom Team Chat : IA, organisation et productivité au rendez-vous !

Dans le cadre de sa transformation en une plateforme de travail « AI-first » centrée sur la connexion humaine, Zoom a dévoilé une refonte majeure de son outil Team Chat, désormais enrichi de plusieurs fonctionnalités d’intelligence artificielle.

Ce changement s’inscrit dans la stratégie annoncée lors du rebranding Zoom 2.0 en novembre 2024, visant à optimiser la productivité et simplifier la collaboration en entreprise.

La nouvelle interface de la barre latérale Team Chat permet désormais une organisation personnalisée avec des fonctions, comme le glisser-déposer pour réorganiser les onglets, ainsi que des options avancées de tri et de filtrage. Ces améliorations visent à aider les utilisateurs à structurer leurs conversations et prioriser les messages essentiels.

Les nouvelles fonctionnalités IA de Zoom Team Chat

Au cœur de cette mise à jour se trouve AI Companion, qui propose des outils alimentés par l’intelligence artificielle pour rendre la collaboration plus fluide :

  • Résumé de conversations : L’IA synthétise automatiquement les discussions dans certains chats et canaux pour un aperçu rapide.
  • Identification des actions clés : Les tâches et points d’action sont automatiquement repérés, facilitant le suivi.
  • Recherche améliorée : Une fonctionnalité de recherche enrichie permet de retrouver rapidement les informations pertinentes.

Ces outils promettent de réduire le temps perdu dans la gestion des messages et de recentrer les efforts sur les priorités.

Team Chat sidebar updated image

Un soutien à la communauté développeur

Pour répondre aux besoins des utilisateurs techniques, Zoom a également introduit le support des blocs de code et du code en ligne, permettant un partage et une mise en forme simplifiés directement dans l’application. Cette fonctionnalité renforce l’utilité de Team Chat pour les équipes de développeurs collaborant sur des projets complexes.

Un outil personnalisable pour plus de productivité

Selon Smita Hashim, Chief Product Officer de Zoom : « Notre nouvelle conception de la barre latérale Team Chat permet aux utilisateurs de collaborer de manière plus intelligente et d’adapter leur espace de travail à leurs préférences. Avec AI Companion, ils peuvent mieux gérer leurs messages, économisant du temps pour se concentrer sur ce qui compte vraiment ».

Les nouvelles fonctionnalités de Team Chat et d’AI Companion sont accessibles sans frais supplémentaires pour les abonnés payants de Zoom Workplace. Elles s’inscrivent dans la vision du PDG Eric Yuan, qui aspire à faire de Zoom 2.0 un « double numérique entièrement personnalisable ». L’objectif affiché est ambitieux : aider les employés à gagner une journée entière par semaine en réduisant le temps perdu sur des tâches improductives.

Cette refonte positionne Zoom comme un acteur clé dans l’adoption de l’intelligence artificielle au service de la collaboration professionnelle.

Lire plus
Intelligence Artificielle

Guerre technologique : Les États-unis limitent l’accès à l’IA

Guerre technologique : Les États-unis limitent l'accès à l'IA

Les États-Unis ont récemment annoncé de nouvelles règles régissant l’exportation de puces avancées destinées à l’intelligence artificielle (IA). Ces mesures visent à protéger la sécurité nationale tout en conservant une position dominante dans le domaine de l’IA.

Le cadre réglementaire divise les pays en trois catégories en fonction de leurs relations avec les États-Unis, imposant des niveaux d’accès variables aux technologies d’IA américaines.

Une nouvelle classification des pays

Les règles classent les nations en trois groupes distincts :

  • Tier 1: Accès total. Comprend des alliés proches comme le Royaume-Uni, le Japon et les Pays-Bas, bénéficiant d’un accès sans restriction aux technologies américaines d’IA.
  • Tier 2: Accès limité. Inclut des pays comme Singapour et Israël, soumis à des quotas d’exportation et à des exigences de licence pour éviter des risques potentiels pour la sécurité.
  • Tier 3: Accès interdit. Regroupe des pays comme la Chine, la Russie et l’Iran, auxquels l’accès aux technologies avancées d’IA est entièrement bloqué en raison de préoccupations sécuritaires.

Caractéristiques clés des restrictions

Ces nouvelles règles introduisent un système de contrôle basé sur une mesure appelée Total Processing Performance (TPP). Cette métrique limite l’exportation de puces avancées comme les GPU Nvidia H100 vers les pays du Tier 3. Voici les principaux aspects de cette réglementation :

  1. Interdiction stricte dans les pays du Tier 3 : La Chine, la Russie et d’autres nations jugées risquées ne peuvent importer de technologies critiques liées à l’IA.
  2. Exemptions pour les fournisseurs de cloud américains : Des entreprises comme Amazon Web Services, Microsoft et Google peuvent continuer à opérer à l’international, mais sous des conditions strictes.
  3. Prévention des usages militaires et cybernétiques : L’objectif principal est d’empêcher que ces technologies soient utilisées pour le développement militaire, la surveillance de masse ou des cyberattaques.
  4. Maintien du leadership en IA : En restreignant l’accès, les États-Unis cherchent à préserver leur avance technologique tout en limitant les risques de prolifération.

Réactions et débats

Les nouvelles règles suscitent des réactions mitigées :

  • Soutiens : Les experts en IA et certains législateurs estiment que ces mesures sont essentielles pour protéger la sécurité nationale.
  • Critiques : Nvidia, un acteur majeur du secteur, avertit que ces restrictions pourraient freiner l’innovation et porter préjudice à l’industrie américaine des semi-conducteurs. La Semiconductor Industry Association souligne également le risque de voir la production se déplacer vers d’autres pays, ce qui pourrait affaiblir la position dominante des États-Unis.

Impact mondial et conséquences

Ces nouvelles restrictions auront un impact significatif sur les marchés :

  1. Perte de revenus pour les fabricants de puces : Des entreprises comme Nvidia, très dépendantes des marchés chinois, pourraient enregistrer d’importantes pertes financières.
  2. Avantage pour les fournisseurs de cloud américains : Grâce à leurs exemptions, des entreprises comme AWS et Google pourraient renforcer leur présence à l’international.
  3. Fragmentation des chaînes d’approvisionnement : Ces restrictions pourraient exacerber la division du marché mondial, affectant des secteurs grand public comme le gaming, qui dépend aussi de ces technologies.

Avec une période de consultation de 120 jours, le cadre réglementaire pourrait être ajusté par l’administration entrante. Bien que les experts s’attendent à ce que les politiques strictes envers la Chine soient maintenues, des ajustements pourraient être envisagés pour équilibrer sécurité nationale et croissance économique.

En adoptant ces nouvelles règles, les États-Unis se placent en acteur majeur pour définir les limites de l’accès aux technologies d’IA. Si ces mesures visent à renforcer la sécurité nationale et à maintenir un leadership technologique, elles risquent aussi de provoquer des tensions économiques et diplomatiques, tout en redéfinissant les chaînes d’approvisionnement mondiales. Le défi consistera à trouver un équilibre entre protection et innovation pour sécuriser un avenir technologique durable.

Lire plus
Intelligence Artificielle

Microsoft 365 Copilot Chat : l’IA gratuite pour les entreprises !

Microsoft 365 Copilot Chat : l'IA gratuite pour les entreprises !

Microsoft poursuit sa mission de populariser l’intelligence artificielle dans le monde professionnel avec le lancement de Microsoft 365 Copilot Chat, une évolution majeure de son précédent outil Bing Chat Enterprise.

Ce nouvel outil gratuit offre désormais la possibilité d’intégrer des agents IA directement dans l’interface de chat, une fonctionnalité auparavant réservée aux utilisateurs payants du service complet Microsoft 365 Copilot.

Un tremplin vers l’adoption des abonnements Copilot à 30 dollars

Microsoft 365 Copilot Chat vise à inciter les entreprises à intégrer davantage d’IA dans leurs processus, en espérant les convertir à l’abonnement premium à 30 dollars par utilisateur et par mois.

Jared Spataro, directeur marketing IA chez Microsoft, affirme : « C’est une IA gratuite et sécurisée alimentée par GPT. Vous pouvez télécharger des fichiers, ce qui est comparable à la concurrence, voire meilleur ».

Bien que Spataro ne nomme pas explicitement la concurrence, il est évident qu’il fait référence à ChatGPT et Google Gemini.

Une refonte stratégique avec des agents IA intégrés

Microsoft 365 Copilot Chat ne se contente pas de rebranding. Le programme inclut désormais l’accès à des agents IA, capables d’agir comme de véritables collaborateurs virtuels. Ces agents peuvent, par exemple, surveiller des boîtes de réception ou automatiser des tâches complexes.

Screenshot 2025 01 14 141319

Les utilisateurs peuvent également créer leurs propres agents via Copilot Studio, avec des fonctionnalités basées sur des données Web ou internes (via Microsoft Graph). La tarification de l’utilisation des agents est basée sur un système de compteurs Azure ou sur un modèle à la demande.

Comment fonctionne la facturation ?

Pour répondre aux inquiétudes concernant les coûts, Spataro explique que Microsoft a mis en place plusieurs options de paiement :

  • Pay-as-you-go : un système à la demande où chaque interaction est facturée.
  • Packs de consommation : une solution permettant de limiter les dépenses en achetant un crédit prédéfini.

La tarification est basée sur un système de messages, selon leur complexité :

  • 1 centime par message pour les réponses classiques.
  • 2 centimes par message pour les réponses génératives.
  • 30 centimes par message pour les interactions nécessitant l’accès à des données internes via Microsoft Graph.

Par exemple, un agent répondant à 200 questions génératives et effectuant 200 accès à Microsoft Graph coûterait 64 dollars pour une journée.

Un outil conçu pour les besoins pratiques

Microsoft 365 Copilot Chat permet aussi d’analyser et de résumer des fichiers Word ou Excel directement dans l’interface, des fonctionnalités qui deviennent encore plus fluides avec l’abonnement complet, où les intégrations dans Word et Excel sont natives.

Malgré l’absence d’un mode d’essai pour Microsoft 365 Copilot, Spataro souligne que les utilisateurs deviennent rapidement convaincus de sa valeur en le testant gratuitement avec Copilot Chat.

Un pari pour convertir les entreprises à l’IA

Avec une adoption déjà remarquable, malgré une stratégie de dénomination confuse, Microsoft espère que Copilot Chat incitera les entreprises à passer à son écosystème IA premium. En offrant une solution gratuite et flexible, Microsoft pose les bases d’une adoption massive de l’IA dans le monde professionnel, tout en positionnant Microsoft 365 Copilot comme une solution incontournable pour l’avenir.

En somme, Microsoft 365 Copilot Chat marque une étape clé dans l’expansion de l’intelligence artificielle dans les entreprises, combinant accessibilité et innovation pour redéfinir les usages au travail.

Lire plus
Intelligence Artificielle

ChatGPT : De chatbot à assistant personnel avec les « Tasks » !

ChatGPT : De chatbot à assistant personnel avec les « Tasks » !

OpenAI vient de lancer Tasks, une nouvelle fonctionnalité en version bêta pour ChatGPT, conçue pour permettre aux utilisateurs de programmer des actions futures et des rappels.

Déjà disponible pour les abonnés Plus, Team, et Pro, cette fonctionnalité marque un tournant dans l’évolution de ChatGPT, qui s’oriente de plus en plus vers un rôle d’assistant numérique complet, à l’instar de Google Assistant ou Siri, mais avec des capacités linguistiques bien plus avancées.

Qu’est-ce que Tasks, et comment cela fonctionne dans ChatGPT ?

Tasks offre la possibilité de demander à ChatGPT d’accomplir des tâches planifiées, qu’il s’agisse de rappels ponctuels ou récurrents. Parmi les cas d’utilisation :

  • Un rapport météo quotidien à 7 h.
  • Un rappel pour renouveler votre passeport.
  • Une blague à raconter à vos enfants avant le coucher.

Pour configurer une tâche, il suffit de sélectionner « 4o avec tâches planifiées » dans le sélecteur de modèle de ChatGPT, puis de décrire l’action et le moment où elle doit être exécutée. De plus, ChatGPT peut suggérer des tâches basées sur vos conversations précédentes. Ces suggestions doivent toutefois être explicitement validées par l’utilisateur avant d’être enregistrées.

OPEN AI TASKS

Les fonctionnalités principales de Tasks incluent :

  • Gestion simplifiée : Les tâches peuvent être modifiées ou annulées directement dans les fils de discussion ou via une nouvelle section « Tasks » (accessible uniquement via la version web).
  • Notifications multi-plateformes : Les utilisateurs reçoivent des alertes sur le web, desktop et mobile une fois les tâches accomplies.
  • Limite active : Un maximum de 10 tâches actives peut être exécuté simultanément.

Pour le moment, Tasks est uniquement disponible pour les abonnés payants, et OpenAI n’a pas précisé si cette fonctionnalité sera étendue aux utilisateurs gratuits. Cela pourrait devenir une exclusivité pour justifier les abonnements à 20 dollars ou 200 dollars par mois.

Vers une évolution des Agents IA : Une étape vers « Operator » ?

Le lancement de Tasks semble s’inscrire dans une stratégie plus large d’OpenAI pour transformer ChatGPT en un agent autonome capable d’effectuer des actions complexes. Des rumeurs autour d’un projet baptisé « Operator » circulent depuis quelque temps. Cet agent serait conçu pour contrôler des ordinateurs de manière autonome et pourrait être lancé dès cette année.

De plus, Tibor Blaho a découvert des indices sur une initiative nommée « Caterpillar », qui pourrait s’intégrer à Tasks pour permettre à ChatGPT de :

  • Chercher des informations spécifiques.
  • Résumer des données et analyser des problèmes.
  • Naviguer sur des sites web et accéder à des documents.

Pourquoi Tasks est une avancée stratégique ?

La montée en puissance des agents IA comme Tasks n’est pas uniquement une question de technologie : elle reflète aussi des impératifs économiques. Ces fonctionnalités représentent une opportunité stratégique pour rentabiliser les infrastructures coûteuses de l’IA d’OpenAI.

Cependant, des questions demeurent :

  • Fiabilité : Que se passe-t-il si une tâche critique échoue ? OpenAI devra prouver que son système est fiable, notamment pour des tâches sensibles ou des rappels critiques.
  • Évolution : Actuellement, Tasks agit comme un script sophistiqué exécutant des instructions préétablies. L’objectif à long terme est de créer des fonctionnalités capables d’apprendre de leur environnement, de s’adapter, et de prendre des décisions autonomes.

Une fonctionnalité en bêta : À tester, mais avec prudence

Pour l’instant, Tasks est encore en phase de test, ce qui signifie que les utilisateurs doivent rester prudents en l’utilisant pour des rappels essentiels. OpenAI a clairement indiqué que cette période bêta permettra de recueillir des retours d’expérience afin d’affiner la fonctionnalité avant un déploiement global.

Si vous êtes abonné à l’une des offres payantes de ChatGPT, vous pouvez dès aujourd’hui explorer Tasks en activant l’option « 4o with scheduled tasks » dans votre modèle. Mais rappelez-vous, la fonctionnalité est encore en développement — mieux vaut éviter de lui confier un rappel pour une réunion critique, du moins pour le moment.

Avec cette nouveauté, ChatGPT fait un pas de plus vers une intégration complète dans notre quotidien numérique, renforçant son rôle non seulement comme assistant conversationnel, mais aussi comme véritable outil de productivité.

Lire plus
Intelligence Artificielle

Nvidia vs Apple : la bataille pour la domination chez TSMC

Nvidia vs Apple : la bataille pour la domination chez TSMC

Depuis des années, Apple a été le plus gros client de TSMC, le leader mondial des fonderies de semi-conducteurs. En 2024, Apple représentait 25,2 % du chiffre d’affaires annuel de TSMC, contre 10,1 % pour Nvidia. Cependant, une évolution majeure pourrait bouleverser cet équilibre.

Selon des analystes de Citi Securities, la forte demande pour les puces destinées à l’intelligence artificielle pourrait propulser Nvidia à la première place, dépassant ainsi Apple.

Apple a historiquement été un partenaire clé pour TSMC, qui fabrique les processeurs de la série A pour iPhone et iPad, ainsi que les processeurs de la série M pour certains iPad et Mac. De plus, TSMC produira les modems 5G conçus par Apple, qui devraient remplacer les modems Snapdragon sur l’iPhone SE 4 et l’iPhone 17 Slim.

Malgré ces contributions, la montée en puissance de Nvidia pourrait réduire la part d’Apple dans les revenus de TSMC, même si ce dernier restera un client clé, notamment avec la réservation de toute la capacité de production en 2 nm de TSMC pour les processeurs A20 et A20 Pro prévus pour l’iPhone 18 en 2026.

Nvidia bénéficie d’une forte demande pour les ASIC spécialisés dans l’IA. Ces puces, qui permettent des calculs spécifiques et hautement optimisés, devraient représenter une part importante des activités de TSMC d’ici 2025. La majorité de ces puces IA seront fabriquées avec la technologie 3 nm de TSMC, ce qui permettra d’augmenter le prix moyen des wafers et d’améliorer les marges de TSMC.

En 2025, Nvidia pourrait représenter jusqu’à 20 % des revenus de TSMC, propulsé par une liste étendue de clients et une demande accrue en solutions IA pour smartphones et PC. Ces dispositifs basés sur l’IA embarquée (on-device IA), considérés comme plus sûrs que l’IA dans le cloud, stimuleront davantage les activités de TSMC et Nvidia.

TSMC face à la compétition et à la croissance

Pour 2025, TSMC prévoit une croissance de 20 à 25 % de son chiffre d’affaires tout en maintenant des marges bénéficiaires brutes supérieures à 50 %. Cependant, cette ascension n’est pas sans défis. Samsung Foundry, malgré son historique de faibles rendements pour les technologies avancées, pourrait tenter d’attirer Nvidia et Qualcomm avec des tarifs compétitifs. Si cela se concrétise, cela pourrait réduire la dépendance de Nvidia vis-à-vis de TSMC.

Malgré la potentielle montée en puissance de Nvidia, Apple reste un acteur incontournable pour TSMC, notamment grâce à ses projets en 2 nm. L’explosion de la demande en IA profite également aux deux entreprises, renforçant leur importance stratégique pour TSMC.

Cependant, avec une compétition accrue entre Nvidia, Apple, Qualcomm et d’autres acteurs, le paysage des semi-conducteurs est en pleine transformation. La capacité de TSMC à maintenir sa position de leader dépendra de sa capacité à équilibrer innovation, efficacité et partenariats stratégiques.

Lire plus