fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

OpenAI va racheter Windsurf : Le Vibe Coding va-t-il révolutionner le code ?

OpenAI va racheter Windsurf : Le Vibe Coding va-t-il révolutionner le code ?

OpenAI pourrait bien signer son acquisition la plus coûteuse à ce jour avec le rachat imminent de Windsurf (anciennement Codeium), une startup emblématique du mouvement émergent du « vibe coding ».

Ce rachat, estimé à 3 milliards de dollars, vise à renforcer la position d’OpenAI dans le développement logiciel assisté par IA, en intégrant un outil complet de codage collaboratif et intuitif à son écosystème.

Le terme vibe coding, popularisé par Andrej Karpathy, cofondateur d’OpenAI, fait référence à une nouvelle approche du développement assisté par IA. Contrairement aux outils classiques de no-code ou low-code basés sur des interfaces visuelles, le vibe coding mise sur des prompts en langage naturel, une collaboration fluide entre l’humain et l’IA, et une logique centrée sur l’intention du développeur plutôt que sur l’écriture manuelle du code.

Pourquoi Windsurf attire tant OpenAI ?

Windsurf s’est rapidement imposé comme l’un des leaders dans ce domaine, aux côtés de solutions comme Cursor, Replit, Lovable ou Bolt. Sa dernière mise à jour, Wave 6, a été saluée pour son efficacité à réduire les frictions dans les workflows des développeurs.

Son succès tient notamment à :

  • Une expérience fluide et rapide grâce à une boucle de retour instantanée ;
  • Une interface co-créative qui permet aux développeurs d’itérer facilement avec l’IA ;
  • Des fonctionnalités avancées pour guider l’IA avec des « toggles » intelligents, ajustés selon l’intuition du développeur.

Vers une intégration verticale du stack développeur

Pour les analystes, l’acquisition de Windsurf serait un mouvement stratégique majeur pour OpenAI : « OpenAI ne veut plus seulement fournir les modèles de langage. Il veut aussi contrôler l’environnement où ils sont utilisés », déclare Arvind Rongala, fondateur de Edstellar.

L’idée ? Intégrer l’outil de codage directement à la couche d’intelligence (les modèles GPT), pour fournir une expérience de développement cohérente, unifiée et optimisée — un peu comme Apple avec ses produits et son écosystème fermé.

Certains observateurs saluent une synergie évidente entre les deux plateformes, notamment Lisa Martin de The Futurum Group, qui voit Windsurf comme « le chaînon manquant pour faire d’OpenAI le meilleur ami du développeur ». Mais d’autres soulignent le risque de verrouillage.

Si Windsurf devient trop dépendant de GPT, il pourrait perdre sa flexibilité à s’adapter à d’autres modèles IA comme Claude d’Anthropic ou des alternatives open source. Ce qui pourrait freiner l’adoption par les développeurs souhaitant rester indépendants.

Et Microsoft dans tout ça ?

Le rachat placerait également OpenAI en concurrence directe avec GitHub Copilot, propriété de Microsoft… alors même que Microsoft est l’un des plus gros investisseurs d’OpenAI. Une relation ambiguë, qui pourrait s’intensifier si OpenAI commence à chasser sur les terres de GitHub en proposant une solution intégrée, indépendante et potentiellement plus puissante.

Avec ce mouvement, OpenAI ne cherche pas seulement à acquérir une technologie, mais à changer la manière dont le code est écrit, partagé, et compris.

Le message est clair : l’avenir du développement logiciel passera par des environnements AI-first, où l’IA est un coéquipier plutôt qu’un simple assistant. Et OpenAI entend bien être à la fois le cerveau et le studio de cette nouvelle génération d’outils.

Alors, OpenAI est-il en avance ou en train de courir après Anthropic et Claude ? Peut-être un peu des deux. Mais une chose est sûre : avec Windsurf, le vibe coding prend une nouvelle dimension.

Lire plus
Intelligence Artificielle

OpenAI lance Codex CLI : Le futur du développement logiciel est là

1pn3PFE9gdwwe mpCge8Qqg

OpenAI continue de transformer la programmation avec l’IA en lançant un nouvel outil baptisé Codex CLI, un agent de codage local conçu pour s’exécuter directement dans les interfaces en ligne de commande (terminal).

Cet outil open source ambitionne de connecter les modèles d’IA d’OpenAI aux fichiers et tâches locales des développeurs.

Une première étape vers l’ingénieur logiciel « agentique »

Ce lancement s’inscrit dans la vision d’OpenAI de l’« agentic software engineer ». Selon Sarah Friar, CFO d’OpenAI, l’objectif est de créer des agents IA capables de : « Prendre une description de projet d’application, la développer de bout en bout, effectuer des tests qualité, et plus encore ».

Codex CLI n’en est pas encore là. Mais il représente une avancée majeure en permettant à l’IA de :

  • Lire, écrire et éditer du code localement
  • Interagir avec les fichiers (déplacement, modification, etc.)
  • Utiliser des captures d’écran ou des croquis pour enrichir le raisonnement de l’IA (fonctionnalité multimodale)
  • Lancer des commandes directement via le terminal

Un outil minimaliste, mais puissant

Selon OpenAI : « Codex CLI est un agent de codage léger, open source, conçu pour fonctionner localement dans votre terminal. Il fournit une interface transparente pour relier les modèles IA à vos tâches de développement ».

Disponible en open source, l’outil promet plus de transparence et moins de dépendance au cloud, un point souvent reproché aux solutions IA intégrées dans les IDE (comme GitHub Copilot).

Un fonds de soutien de 1 million de dollars

Pour stimuler l’adoption de Codex CLI, OpenAI annonce la création d’un fonds de 1 million de dollars en crédits API. Chaque projet retenu pourra bénéficier de 25 000 dollars de crédits pour utiliser les modèles d’OpenAI dans le cadre de leur développement avec Codex CLI.

Les projets éligibles devront démontrer un potentiel d’innovation en développement logiciel et proposer des cas d’usage intéressants autour de l’outil.

Une IA à manier avec prudence

Bien que Codex CLI soit une avancée prometteuse, il convient de garder une certaine vigilance. Plusieurs études ont révélé que les IA générant du code peuvent :

  • Introduire ou laisser passer des vulnérabilités de sécurité
  • Mal interpréter des spécifications
  • Produire du code inefficace ou instable

Il est donc recommandé de toujours valider manuellement le code généré et d’éviter de donner à l’IA un accès libre à des systèmes sensibles.

Avec Codex CLI, OpenAI rapproche encore un peu plus l’IA des développeurs, en misant sur un outil local, transparent, léger et puissant. Cette initiative pourrait bien marquer un tournant majeur dans la façon de coder à l’avenir, tout en posant les bases d’un assistant-développeur autonome dans les prochaines années.

Lire plus
Intelligence Artificielle

Grok se souvient de vous : L’IA d’Elon Musk se dote enfin d’une mémoire !

Grok se souvient de vous : L'IA d'Elon Musk se dote enfin d'une mémoire !

Elon Musk poursuit son ambition de faire de Grok, son chatbot développé par sa société xAI, un concurrent sérieux face à ChatGPT et Gemini de Google. Dernière nouveauté en date : l’introduction d’une fonctionnalité de mémoire, désormais disponible en version bêta.

Comme ses rivaux, Grok peut maintenant se souvenir de détails issus de vos conversations précédentes. Cela permet au chatbot de personnaliser ses réponses en fonction de vos goûts, habitudes ou requêtes passées.

Par exemple, si vous lui avez demandé des recommandations musicales ou de lecture à plusieurs reprises, Grok adaptera ses suggestions pour qu’elles correspondent mieux à vos préférences personnelles.

xAI précise que la mémoire est entièrement transparente : vous pouvez consulter à tout moment les informations mémorisées par Grok et choisir de les supprimer individuellement. Il est également possible de désactiver complètement cette fonction depuis les paramètres (rubrique « Contrôle des données »).

Grok: Une fonctionnalité absente en Europe, pour le moment

Actuellement, cette mémoire conversationnelle n’est pas encore disponible pour les utilisateurs de l’Union européenne ou du Royaume-Uni, probablement en raison des régulations plus strictes en matière de protection des données (comme le RGPD). Elle est accessible via le site Web Grok.com ainsi que sur les applications iOS et Android. Une intégration au sein de X (anciennement Twitter) est en cours de développement.

Avec cette évolution, Grok rattrape ChatGPT, qui dispose d’une mémoire avancée depuis plusieurs mois, et Gemini, qui intègre également une mémoire persistante. Mais xAI ne s’arrête pas là. La société a aussi récemment annoncé le lancement de Grok Studio, un espace où les utilisateurs peuvent créer des applications, rédiger des documents, voire concevoir des jeux grâce à l’IA.

Une avancée qui place Grok au niveau des meilleurs

Avec cette nouvelle capacité de raisonnement personnalisé et de mémoire, Grok franchit un cap important. Elon Musk et xAI semblent déterminés à positionner leur assistant IA comme un outil complet, polyvalent et de plus en plus intelligent. Reste à voir si cela suffira à faire de l’ombre à des concurrents bien établis, comme OpenAI et Google.

Lire plus
Intelligence Artificielle

o3 et o4-mini : Les nouveaux modèles de raisonnement qui dépassent GPT-4

o3 et o4-mini : Les nouveaux modèles de raisonnement qui dépassent GPT-4

OpenAI continue d’élargir sa gamme de modèles d’intelligence artificielle avec le lancement officiel de deux nouveaux modèles de raisonnement : o3 et o4-mini.

En décembre 2024, OpenAI avait annoncé o3, son modèle d’IA de raisonnement le plus avancé, et a indiqué que le modèle serait publié après des tests de sécurité appropriés. Il est donc enfin lancé. Au cours de ces quatre mois, OpenAI a encore amélioré le modèle o3 et affirme qu’il s’agit du « modèle de raisonnement le plus puissant » développé par l’entreprise De plus, OpenAI a également publié le modèle de raisonnement de nouvelle génération o4-mini (et o4-mini-high).

Déployés dès aujourd’hui pour les abonnés ChatGPT Plus, Pro et Team, ces modèles se positionnent comme des outils puissants, capables de raisonner en profondeur… et même de « penser avec des images ».

o3 : le modèle de raisonnement le plus avancé d’OpenAI

OpenAI présente o3 comme son modèle de raisonnement le plus performant à ce jour, surpassant tous les précédents dans des domaines clés : mathématiques, codage, raisonnement logique, compréhension scientifique et traitement visuel.

Parmi les faits marquants :

  • Un score de 69,1 % au test SWE-bench Verified (sans aides personnalisées), l’un des benchmarks les plus exigeants en programmation.
  • Intégration native des outils ChatGPT, y compris la navigation web, l’exécution de code Python via Canvas, la génération d’images, et l’analyse d’images.
  • Un prix compétitif : 10 dollars par million de tokens en entrée et 40 dollars par million de tokens en sortie (moins cher que GPT-4.5).

OpenAI affirme que o3 établit une nouvelle référence en matière de codage, de mathématiques, de sciences et de tâches visuelles telles que l’analyse d’images, de graphiques et de diagrammes. Les premiers testeurs affirment qu’o3 peut « générer et évaluer de manière critique de nouvelles hypothèses, notamment dans les domaines de la biologie, des mathématiques et de l’ingénierie ».

o4-mini : rapide, léger, mais redoutablement efficace

En revanche, conçu comme une version plus abordable, o4-mini propose un compromis efficacité/vitesse/coût. Il affiche :

  • Un score impressionnant de 68,1 % sur SWE-bench Verified, quasi équivalent à o3.
  • Une tarification identique à celle de o3-mini : 1,10 dollar en entrée, 4,40 dollars en sortie par million de tokens.
  • Une variante o4-mini-high, qui prend plus de temps pour générer ses réponses avec plus de fiabilité.

Raisonnement avec images : une nouveauté majeure

Pour la première fois, OpenAI propose des modèles capables de « penser avec des images ». Cela signifie que :

  • Vous pouvez téléverser des croquis, schémas, photos floues ou captures de PDF dans ChatGPT.
  • L’IA peut analyser visuellement, zoomer, faire pivoter ou interpréter les contenus graphiques comme partie intégrante de sa réflexion.
  • C’est un bond en avant pour les usages en éducation, ingénierie, médecine, design ou data science.

Intégration API pour développeurs

Les modèles o3, o4-mini et o4-mini-high sont aussi disponibles via les API Chat Completions et Responses d’OpenAI, permettant aux développeurs d’intégrer ces IA dans leurs propres apps et services.

Et la suite ?

OpenAI prévoit de lancer o3-pro dans les semaines à venir : une version plus gourmande en ressources, réservée aux abonnés ChatGPT Pro. Sam Altman a annoncé que ces modèles pourraient être les derniers modèles de raisonnement autonomes avant l’arrivée de GPT-5, censé unifier la série GPT-4.1 et les modèles de raisonnement.

Avec o3 et o4-mini, OpenAI confirme sa place de leader dans la course mondiale à l’IA face à Google (Gemini), Meta (LLaMA), xAI (Grok), Anthropic (Claude 3) ou encore DeepSeek. Ces nouveaux modèles marquent une avancée majeure, non seulement par leur puissance de raisonnement, mais aussi par leur capacité à analyser des images et à exécuter du code en temps réel.

Les annonces d’hier font suite à la présentation par OpenAI de son modèle d’IA phare GPT-4.1, le successeur de GPT-4o, lundi dernier.

Lire plus
Intelligence Artificielle

Nvidia : Supercalculateurs IA made in USA, un tournant ?

nvidiaheadquarters

Nvidia vient d’annoncer une initiative majeure visant à produire des superordinateurs d’intelligence artificielle (IA) entièrement aux États-Unis. Cette décision stratégique s’inscrit dans un contexte de tensions commerciales et de volonté de renforcer la souveraineté technologique américaine.

Pour la première fois, Nvidia prévoit de fabriquer ses superordinateurs IA exclusivement sur le sol américain. Cette démarche comprend la production des puces Blackwell dans les installations de TSMC à Phoenix, en Arizona, et la construction de deux usines dédiées aux superordinateurs au Texas, en partenariat avec Foxconn à Houston et Wistron à Dallas.

La production de masse dans ces usines texanes est attendue dans les 12 à 15 prochains mois.

Nvidia prévoit d’investir jusqu’à 500 milliards de dollars dans l’infrastructure IA aux États-Unis au cours des quatre prochaines années. Cette initiative vise à répondre à la demande croissante de solutions IA, à renforcer la résilience de la chaîne d’approvisionnement et à créer des emplois qualifiés sur le territoire américain.

Nvidia, une réponse aux enjeux géopolitiques

Cette décision intervient dans un contexte où l’administration américaine envisage d’imposer de nouveaux tarifs douaniers sur les semi-conducteurs importés. En localisant sa production, Nvidia cherche à atténuer l’impact potentiel de ces mesures et à soutenir l’objectif national de renforcer la production technologique domestique.

Pour mener à bien ce projet, Nvidia collabore avec des partenaires industriels majeurs, tels que TSMC, Foxconn, Wistron, Amkor et SPIL. Ces collaborations couvrent l’ensemble du processus de fabrication, de l’assemblage des puces à leur test et leur conditionnement.

Des partenaires stratégiques

En résumé, Nvidia s’engage dans une transformation significative de sa stratégie de production, alignée sur les priorités économiques et géopolitiques actuelles des États-Unis. Cette initiative pourrait redéfinir le paysage de la fabrication de technologies avancées et renforcer la position de Nvidia en tant que leader de l’IA.

Lire plus
Intelligence Artificielle

ChatGPT Starter Pack : Derrière le buzz, un impact écologique inquiétant

ChatGPT Starter Pack : Derrière le buzz, un impact écologique inquiétant

Si vous avez récemment parcouru Instagram, LinkedIn ou même TikTok, vous avez sûrement croisé cette nouvelle tendance virale : des portraits stylisés façon figurines d’action, enfermés dans des blisters en plastique vintage, comme sortis tout droit d’un rayon de jouets des années 90.

Ces images générées par l’IA via ChatGPT ou Midjourney font fureur — mais derrière leur aspect fun et décalé, se cache un problème environnemental majeur.

Une mode ludique… mais énergivore

Au premier abord, ces images séduisent par leur mélange de nostalgie et de modernité, attirant autant les créateurs de contenu que les professionnels cherchant à dynamiser leur image sur les réseaux. Pourtant, chaque image créée génère une dépense énergétique colossale, bien supérieure à ce que l’on pourrait imaginer.

Selon The Next Web, le fondateur de Corpora.ai, Melo Morris, met en garde contre cette dérive technologique insoutenable : « Les GPU ne sont pas illimités. Ils ont un coût carbone, et cette utilisation frénétique pour du contenu ludique démontre à quel point nous sommes déconnectés des impacts réels de ces outils ».

Des chiffres qui donnent le vertige

Créer une image via une IA générative consomme 2x plus d’énergie que la génération de texte, qui elle-même nécessite 20 à 30 fois plus d’énergie qu’une recherche Web classique.

D’après l’Agence Internationale de l’Énergie (IEA) :

  • La consommation énergétique liée aux data centers et aux IA devrait doubler d’ici 2026,
  • Cela représenterait près de 3 % de la consommation énergétique mondiale,
  • Et près de la moitié de cette énergie proviendrait encore de sources fossiles (charbon, gaz).

En clair, même une simple image pour « s’amuser » contribue aux émissions mondiales de CO₂, surtout quand des millions d’utilisateurs reproduisent le même geste.

Innovation oui, mais durable

Morris ne se déclare pas « anti-IA ». Il croit fermement en son potentiel, mais alerte sur la nécessité d’une innovation responsable : « L’avenir de l’IA est prometteur, mais il doit être intelligent, durable et intentionnel ». Il encourage chacun à réfléchir avant de céder à l’appel du clic facile : « Est-ce que ce post mérite vraiment l’empreinte carbone qu’il génère ? ».

Créer une figurine AI de soi-même peut sembler anodin. Pourtant, ce geste répétitif et massif n’est pas sans conséquences. Alors que l’on s’interroge de plus en plus sur l’impact écologique de nos usages numériques, cette tendance nous pousse à remettre en question l’usage futile de ressources énergétiques précieuses.

Les figurines générées par IA sont drôles, tendance, virales… mais elles ne sont pas gratuites pour la planète. Avant de vous lancer dans la création de votre version « action figure », demandez-vous si le post vaut vraiment l’impact écologique qu’il engendre.

Lire plus
Intelligence Artificielle

Claude Voice : Le mode vocal arrive pour concurrencer ChatGPT

Claude Voice : Le mode vocal arrive pour concurrencer ChatGPT

Selon les informations de Bloomberg, Anthropic, l’entreprise derrière le chatbot Claude AI, prépare le lancement d’un mode vocal pour son assistant conversationnel. Cette fonctionnalité, déjà attendue depuis plusieurs semaines, pourrait commencer à être déployée dès ce mois-ci, positionnant Claude comme un concurrent direct de ChatGPT Voice.

Claude Voice: Trois voix, trois ambiances : Airy, Mellow et Buttery

D’après le rapport, Claude proposera dans un premier temps trois voix anglaises distinctes :

  • Airy: probablement légère et fluide
  • Mellow: douce et apaisante
  • Buttery: chaleureuse et enveloppante

Ces voix permettront aux utilisateurs de dialoguer oralement avec l’IA, une avancée majeure dans l’évolution des assistants conversationnels, qui devient de plus en plus multimodale.

Une fonctionnalité déjà en test interne

La fonctionnalité avait déjà été évoquée par Mike Krieger, Chief Product Officer d’Anthropic, dans une interview accordée au Financial Times en mars dernier : « Nous allons également travailler la voix en interne, c’est une modalité utile à posséder. Nous avons des prototypes ».

Des indices de cette nouveauté ont été repérés dans l’application iOS de Claude par le chercheur M1Astra, avant d’être confirmés par Bloomberg. Anthropic n’a pas encore officiellement réagi.

Une IA qui parle, pour une interaction plus naturelle

Cette évolution est dans la lignée de ce qu’a proposé OpenAI avec ChatGPT Voice, permettant des conversations vocales naturelles via smartphone. Le mode vocal de Claude pourrait transformer l’outil en véritable assistant personnel IA, capable d’assister l’utilisateur dans des tâches quotidiennes sans avoir à taper le moindre texte.

Cela ouvre la porte à des cas d’usage plus dynamiques :

  • Conduite mains libres
  • Assistance vocale au travail
  • Accessibilité améliorée pour les personnes ayant des difficultés à écrire

Un sérieux concurrent face à ChatGPT

Fondée par d’anciens employés d’OpenAI, Anthropic s’impose comme un acteur majeur dans la course à l’IA générative. Le mois dernier, l’entreprise a lancé un nouveau forfait à 200 dollars/mois pour les utilisateurs intensifs, et a récemment introduit Claude Research, un outil d’analyse Web avancée pour les chercheurs.

Avec ce mode vocal, Claude continue son ascension et se rapproche encore un peu plus du modèle conversationnel « humain » tant recherché dans l’IA moderne.

Lire plus
Intelligence Artificielle

ChatGPT lance sa bibliothèque d’images IA : Retrouvez vos créations facilement

Screen 2025 04 16 at 08.09.22

OpenAI continue d’améliorer l’expérience utilisateur de ChatGPT avec l’introduction d’une nouvelle fonctionnalité très attendue : une bibliothèque d’images dédiée. Désormais, les utilisateurs peuvent retrouver, consulter et organiser facilement leurs images générées par IA, directement depuis l’interface de ChatGPT.

Une nouvelle section « Library » dans l’application et sur le Web

Cette fonctionnalité est en cours de déploiement pour tous les utilisateurs Free, Plus et Pro, aussi bien sur mobile que sur le Web. Sur iOS, elle est déjà accessible pour certains, et devrait apparaître progressivement sur les autres plateformes.

Dans une vidéo de démonstration partagée par OpenAI, on découvre une nouvelle section dans la barre latérale de ChatGPT, intitulée « Library ». En y accédant, vous retrouvez une grille d’images précédemment générées, avec une interface claire et fluide.

Pour qui est-ce utile ?

Cette bibliothèque est particulièrement utile si vous :

  • Utilisez fréquemment DALL·E ou d’autres générateurs d’images IA dans ChatGPT
  • Aimez créer des visuels à thème (style Studio Ghibli, rétro, science-fiction…)
  • Avez envie de revenir sur vos créations précédentes sans tout regénérer
  • Souhaitez partager ou réutiliser des images facilement dans vos projets

Un bouton « Créer une nouvelle image » est également accessible depuis la bibliothèque, facilitant l’ajout de nouveaux visuels à votre collection.

Avec cette bibliothèque, OpenAI transforme ChatGPT en véritable carnet de créations visuelles, où chaque utilisateur peut retrouver l’historique de ses idées et inspirations visuelles générées par IA. Une fonctionnalité simple mais précieuse pour les créateurs, artistes, marketeurs et curieux de l’IA générative.

Lire plus
Intelligence Artificielle

Claude x Google Workspace : L’IA d’Anthropic intègre Gmail, Agenda et Docs

Claude x Google Workspace : L'IA d'Anthropic intègre Gmail, Agenda et Docs

L’entreprise américaine Anthropic a annoncé ce mardi une intégration majeure de son chatbot Claude avec la suite Google Workspace. Cette nouveauté permet à Claude d’interagir avec des services comme Gmail, Google Calendar et Google Docs, afin de fournir des réponses plus contextualisées et personnalisées.

L’intégration est pour l’instant disponible en version bêta, réservée aux clients des formules Claude Max, Team, Enterprise et Pro. Pour les comptes multi-utilisateurs, les administrateurs doivent activer manuellement l’accès à Workspace avant que les utilisateurs puissent connecter leurs comptes.

Que peut faire Claude avec Google Workspace ?

Claude peut désormais :

  • Lire et analyser vos e-mails Gmail pour trouver des informations pertinentes,
  • Consulter votre agenda Google Agenda pour répondre à des requêtes liées à votre emploi du temps,
  • Parcourir vos documents Google Docs pour en extraire des données ou les résumer.

image 5 1

Exemple : Claude peut aider un parent en scannant les e-mails et événements pour repérer les réunions scolaires importantes, puis rechercher automatiquement les prévisions météo ou les événements locaux susceptibles d’impacter la planification familiale.

Citations intégrées et confidentialité respectée

Chaque fois que Claude s’appuie sur des données issues de Workspace, une citation intégrée indique la source exacte, qu’il s’agisse d’un e-mail, d’un document ou d’un événement.

image 7

Anthropic précise que les données utilisateur ne sont pas utilisées pour entraîner les modèles, sauf consentement explicite. La société affirme avoir mis en place des mécanismes stricts d’authentification et de contrôle d’accès pour garantir que Claude n’accède qu’aux comptes explicitement autorisés.

« Chaque connexion à un service externe est liée uniquement à l’authentification spécifique de l’utilisateur ou de l’organisation concernée », indique un porte-parole d’Anthropic.

Quid de la sécurité et des données sensibles ?

Claude ne peut ni envoyer d’e-mails, ni planifier de rendez-vous, mais des questions de confidentialité demeurent. On ignore dans quelle mesure Claude explore l’ensemble des données d’un Workspace, ou si l’utilisateur doit spécifiquement demander l’accès à un e-mail ou un fichier. Il n’est pas encore clair non plus si les utilisateurs peuvent exclure certaines données sensibles de cette recherche automatisée.

Claude Research: un moteur de recherche IA pour aller plus loin

Anthropic a également annoncé le lancement de Claude Research, un nouvel outil qui réalise plusieurs recherches sur le Web pour fournir des réponses approfondies et fiables.

L’objectif est de rivaliser avec les outils « deep research » d’OpenAI ou de Google, tout en offrant un meilleur équilibre entre rapidité et précision :

  • Claude Research fonctionne en moins d’une minute
  • Il ne repose pas sur un modèle personnalisé, mais exploite les capacités Web de Claude 3.5

Disponible dès aujourd’hui pour les abonnés Max, Team et Enterprise aux États-Unis, au Japon et au Brésil, cette fonction sera prochainement déployée pour les abonnés Pro.

Claude progresse… mais reste derrière ChatGPT

En mars 2025, Claude comptait 3,3 millions d’utilisateurs Web, selon SimilarWeb. Bien que la progression soit notable, ChatGPT reste largement dominant, avec une base d’utilisateurs nettement plus importante.

Cependant, grâce à des intégrations stratégiques comme Workspace, et à des fonctions avancées comme Claude Research, Anthropic entend se positionner comme un concurrent crédible sur le marché de l’IA conversationnelle premium.

Claude devient une IA vraiment personnalisée et connectée à votre environnement de travail réel. Grâce à l’intégration avec Google Workspace, elle devient plus intelligente, plus pertinente, et plus utile au quotidien — sans avoir à tout uploader ou reformuler constamment ses demandes.

Lire plus
Intelligence Artificielle

Gemini crée des vidéos IA étonnantes en 8 secondes avec Veo 2 !

Gemini crée des vidéos IA étonnantes en 8 secondes avec Veo 2 !

Google continue de faire évoluer sa suite d’outils IA Gemini avec une fonctionnalité spectaculaire intégrée à Gemini Advanced, son assistant IA premium. Grâce à Veo 2, le modèle IA de génération vidéo lancé fin 2024, il est désormais possible de générer des vidéos animées de 8 secondes à partir d’une simple description textuelle.

Ce nouvel outil ouvre un tout nouveau champ de créativité rapide, accessible et étonnamment réaliste.

Veo 2 dans Gemini : la vidéo IA accessible à tous

Avec Veo 2, les abonnés à Gemini Advanced peuvent désormais générer des clips au format 16:9, en 720p, directement depuis leur interface Gemini, que ce soit sur desktop ou mobile. Il suffit de sélectionner « Veo 2 » dans le menu déroulant des modèles (aux côtés de 2.0 Flash, 2.5 Pro, etc.) pour activer le mode création vidéo.

Gemini propose ensuite un champ de texte : décrivez-y la scène de votre choix. En quelques instants, votre description se transforme en vidéo MP4 animée, que vous pouvez :

  • télécharger localement
  • partager par lien public
  • ou diffuser directement sur Facebook, LinkedIn, Reddit, X/Twitter

Une IA qui comprend les mouvements, la physique et le style visuel

Google affirme que Veo 2 comprend mieux que jamais :

  • La physique du monde réel
  • Les mouvements humains
  • Les types d’objectifs photographiques
  • Et la composition de scènes réalistes ou imaginaires

Cela permet de créer des vidéos qui semblent issues de vrais clips filmés. Chaque vidéo générée est marquée par la technologie SynthID, qui certifie qu’elle a été créée par une IA.

De la simple description à la création stylisée

Gemini se montre très performant, que vous donniez un prompt vague ou une description très détaillée. Voici deux exemples partagés :

  • Prompt court : « Un groupe de K-pop joue une chanson sur scène dans un grand stade. Le public agite des lightsticks ». Résultat : un clip impressionnant, avec une chanteuse au style K-pop distinct, un stade bondé, et des sous-titres coréens en bas de l’écran, comme lors d’un live stream.
  • Prompt détaillé : « Un homme et un chat marchent sur un chemin bordé de fermes abandonnées. Dans le ciel, des OVNI planent au-dessus des champs. ». Résultat : une scène immersive, où le chat se déplace naturellement et les OVNI apparaissent dans un jeu de caméra fluide entre les arbres.

Plus vous passez de temps à peaufiner votre description, plus le résultat est impressionnant. Mais Gemini sait aussi « compléter » avec créativité quand vous laissez des zones floues.

Et les images ? Whisk Animate pour aller plus loin

Pour ceux qui souhaitent aller au-delà du texte, Google propose également Whisk Animate, un outil complémentaire qui permet de transformer une image en vidéo animée de 8 secondes grâce à Veo 2.

Disponible via l’abonnement Google One AI Premium (20 euros/mois), Whisk Animate permet de donner vie à des images fixes de façon cinématographique. Bien que Veo 2 ne prenne pas encore en charge l’ajout d’images dans les prompts, Whisk permet de contourner cette limite.

Whisk est désormais disponible partout dans le monde pour les abonnés premium.

Avec cette avancée, Google donne un coup d’accélérateur à la création vidéo automatisée. Plus rapide que les outils classiques, mais plus stylisé et contrôlable que les générateurs simples, Gemini + Veo 2 s’annonce comme une solution puissante pour les créateurs, storytellers, communicants et curieux de l’IA.

Lire plus
Intelligence Artificielle

GPT-4.1 : L’IA d’OpenAI prête à révolutionner le codage

GPT-4.1 : L'IA d'OpenAI prête à révolutionner le codage

Hier, OpenAI a dévoilé sa nouvelle génération de modèles d’intelligence artificielle baptisée GPT-4.1. Cette famille comprend trois versions : GPT-4.1, GPT-4.1 Mini et GPT-4.1 Nano. Conçus pour exceller en codage et en compréhension d’instructions complexes, ces modèles marquent une avancée stratégique pour OpenAI dans sa course face à Google, Anthropic ou encore DeepSeek.

Les trois variantes de GPT-4.1 partagent une particularité inédite : elles peuvent traiter jusqu’à un million de tokens en une seule requête, soit environ 750 000 mots — l’équivalent de plus de 2x le roman Guerre et Paix de Tolstoï.

Cette capacité contextuelle surpasse largement celle de GPT-4o (16 384 tokens) ou même de GPT-4 classique (32 768 tokens), et se positionne comme un atout clé pour l’analyse de longs documents, le traitement multimédia ou le développement logiciel complexe.

Des modèles conçus pour le développement logiciel

OpenAI met l’accent sur le potentiel de GPT-4.1 comme assistant de programmation avancé. L’ambition à long terme de l’entreprise : créer un “agent logiciel autonome” capable de concevoir des applications complètes, de réaliser des tests, corriger des bugs et rédiger de la documentation.

Performances en codage

Selon OpenAI, GPT-4.1 surpasse GPT-4o sur les benchmarks de programmation, notamment SWE-bench Verified, où il atteint un score entre 52 % et 54,6 %. À titre de comparaison :

Screen 2025 04 14 at 20.31.35

Ces scores restent élevés, même si OpenAI reconnaît que certaines limitations techniques ont empêché certains cas de test d’être exécutés sur ses propres serveurs.

Trois modèles pour trois usages

Modèle

Description

Prix (tokens d’entrée / de sortie)

GPT-4.1

Le plus complet, pour des tâches avancées

2 dollars / 8 dollars

GPT-4.1 Mini

Plus rapide et moins cher, idéal pour les développeurs

0,40 dollar / 1,60 dollar

GPT-4.1 Nano

Ultra-léger, le plus économique et rapide

0,10 dollar / 0,40 dollar

Mini et Nano sacrifient un peu de précision, mais gagnent en vitesse et coût, permettant à tous les budgets de tirer parti de l’IA.

Optimisé pour un usage réel

OpenAI a affiné GPT-4.1 grâce aux retours d’utilisateurs pour qu’il soit plus conforme aux attentes des développeurs :

  • Moins de modifications superflues dans le code généré
  • Meilleur respect des formats et des structures de réponse
  • Usage plus cohérent des outils intégrés
  • Meilleure efficacité pour le codage frontend

Ces améliorations facilitent le développement d’agents IA capables de travailler sur des projets réels en entreprise.

Une IA qui comprend aussi les vidéos

Autre nouveauté : GPT-4.1 excelle également sur les tests de compréhension vidéo. Sur l’évaluation Video-MME, il atteint 72 % de précision pour les vidéos longues sans sous-titres — un record.

Malgré ses avancées, GPT-4.1 n’est pas exempt de défauts :

  • Perte de fiabilité avec de gros volumes de données : sa précision passe de 84 % (avec 8 000 tokens) à 50 % (avec 1 million de tokens), selon les tests OpenAI.
  • Tendance à être trop littéral : parfois, il nécessite des consignes plus explicites qu’un GPT-4o.

De plus, comme d’autres modèles de génération de code, GPT-4.1 peut encore introduire des failles ou des erreurs dans ses programmes, soulignant la nécessité de validation humaine.

GPT-4.1 est une avancée stratégique pour OpenAI dans la création d’IA appliquées au développement logiciel. Bien qu’il ne surpasse pas encore les meilleurs modèles sur tous les benchmarks, sa souplesse, ses capacités contextuelles extrêmes, et sa tarification adaptée en font un outil prometteur pour l’avenir de l’IA générative.

Lire plus
Intelligence Artificielle

GitHub pour les débutants ! Maîtrisez l’art du prompt engineering

GitHub pour les débutants ! Maîtrisez l'art du prompt engineering

Vous vous êtes déjà retrouvé face à une réponse vague, décevante ou à côté de la plaque d’un outil d’intelligence artificielle comme ChatGPT ou GitHub Copilot ? Rassurez-vous, vous n’êtes pas seul. Interagir avec un modèle de langage peut parfois ressembler à un jeu de devinettes. Pourtant, le problème ne vient pas forcément de l’IA elle-même, mais de la façon dont on lui parle.

C’est là qu’intervient le prompt engineering : l’art de formuler des requêtes claires, précises et contextualisées pour obtenir des réponses utiles et cohérentes. Apprendre à « parler IA » peut transformer vos interactions, que vous soyez développeur, créateur de contenu ou simple curieux.

Considérez donc le prompt engineering comme l’apprentissage du langage de l’IA. Ce guide de GitHub détaille les fondamentaux du prompt engineering, en proposant des conseils pratiques et des exemples pour vous aider à affiner votre approche et obtenir de meilleurs résultats.

Qu’est-ce qu’un modèle de langage (LLM) ?

Les LLMs (Large Language Models) comme ceux développés par OpenAI (GPT), sont des intelligences artificielles entraînées sur d’immenses corpus de texte. Elles analysent le langage sous forme de tokens — des mots, syllabes ou caractères — pour générer du texte en s’appuyant sur des modèles de probabilité.

Mais ces modèles ont des limites :

  • Hallucinations : l’IA peut inventer des faits lorsqu’un prompt est trop vague ou ambigu.
  • Limites de tokens : le volume de texte en entrée comme en sortie est restreint, ce qui impose d’optimiser l’information donnée.

Pourquoi le prompt engineering est-il crucial ?

Le prompt engineering permet d’exploiter pleinement la puissance de ces modèles en formulant des requêtes structurées, explicites et efficaces. Un bon prompt permet :

  • d’éviter les erreurs,
  • d’obtenir des réponses pertinentes,
  • de guider précisément l’IA vers le résultat souhaité.

Prenons un exemple concret. Demander simplement « Écris une fonction » ne donnera pas grand-chose. En revanche, un prompt comme « Écris une fonction Python qui calcule la factorielle d’un entier n de manière récursive » est bien plus spécifique — et donc productif.

Essentiels du prompt engineering de GitHub

Les ingrédients d’un bon prompt

Pour obtenir les meilleures réponses, appliquez ces trois piliers :

  1. Clarté et précision : Utilisez un vocabulaire précis, sans ambiguïté.
  2. Contexte pertinent : Fournissez juste assez d’information pour orienter le modèle, sans le surcharger.
  3. Itération : Testez, ajustez, recommencez. L’amélioration continue est la clé.

Exemple :

  • Prompt 1 : « Trie une liste de nombres » → trop vague.
  • Prompt 2 : « Écris une fonction Python qui trie une liste d’entiers en ordre croissant avec l’algorithme quicksort » → efficace, précis, orienté solution.

Déjouer les pièges classiques

Quelques astuces pour éviter les résultats décevants :

  • Divisez pour mieux régner : Segmentez les requêtes complexes en sous-tâches simples.
  • Gérez les limites de tokens : Allez à l’essentiel, utilisez plusieurs requêtes si nécessaire.
  • Évitez les non-dits : Spécifiez les contraintes, les formats attendus, les cas limites.

Plus vos instructions sont claires, plus l’IA sera pertinente.

Où le prompt engineering est-il le plus utile ?

Dans la programmation et la création de contenu, les bénéfices sont immédiats :

  • Code : précisez le langage, les bibliothèques, les contraintes (« Fonction Python qui calcule l’aire d’un cercle avec la librairie math »).
  • Texte : fixez le ton, le style, la longueur, la cible (« Écris une introduction persuasive pour un article sur l’IA, ton professionnel, 150 mots »).

Bonnes pratiques à adopter

  • Décomposez les tâches complexes pour éviter les confusions.
  • Soyez explicite : format d’entrée, contraintes, structure attendue.
  • Affinez vos prompts en fonction des réponses, jusqu’à obtenir l’effet recherché.

L’art de converser avec l’intelligence artificielle

Le prompt engineering n’est pas juste une compétence utile : c’est la clé pour déverrouiller le plein potentiel des modèles de langage. En maîtrisant cet art, vous transformez vos échanges avec l’IA en un outil de travail fiable, créatif et performant.

Et comme pour toute compétence, la pratique fait la différence. Plus vous testez, affinez et explorez, plus vous obtiendrez des résultats puissants et sur mesure.

Lire plus
Intelligence Artificielle

GPT-4.1 : L’IA ultime d’OpenAI disponible… pour les développeurs !

Un an après la sortie remarquée de GPT-4o, OpenAI continue de faire évoluer son intelligence artificielle avec une toute nouvelle version : GPT-4.1. Présentée lors d’un livestream officiel, cette mise à jour marque une avancée majeure dans le domaine de l’IA multimodale, avec des améliorations significatives en codage, compréhension du langage, et traitement de contexte étendu.

OpenAI a qualifié GPT-4.1 comme étant meilleur que GPT-4o « dans presque toutes les dimensions », notamment en matière de programmation, de compréhension d’instructions complexes et de raisonnement logique. S’il s’agit des meilleurs modèles d’IA “non raisonné” d’OpenAI, la série GPT-4.1 n’est pas disponible pour ChatGPT. OpenAI indique que les modèles de la série GPT-4.1 sont exclusivement formés pour les développeurs et qu’ils sont disponibles dans l’API à partir d’aujourd’hui.

GPT 4.1 Family Intelligence by Latency lightMode

GPT-4.1 peut traiter jusqu’à 1 million de tokens dans une seule interaction, ce qui représente des centaines de pages de texte, des images, voire des vidéos. Cette capacité contextuelle décuplée permet des applications bien plus puissantes, notamment pour :

  • l’analyse de gros documents juridiques ou techniques,
  • la création de code à partir de longues consignes,
  • l’interprétation de fichiers multimédias.

Deux nouvelles variantes : GPT-4.1 Mini et GPT-4.1 Nano

Pour accompagner cette mise à jour majeure, OpenAI lance aussi deux modèles dérivés.

GPT-4.1 Mini

Conçu pour les développeurs à budget maîtrisé, ce modèle plus léger reste performant tout en étant plus économique à utiliser. Il offre un excellent compromis pour tester des applications d’IA à grande échelle sans exploser les coûts.

GPT-4.1 Nano

C’est le modèle le plus rapide, léger et économique jamais proposé par OpenAI. Idéal pour les appareils à ressources limitées (IoT, embarqué, apps mobiles), ou pour des cas d’usage où la latence est critique.

Des gains massifs en codage et exécution

OpenAI a mis en avant les performances exceptionnelles de GPT-4.1 en matière de codage, notamment dans son intégration à GitHub Copilot. Ce dernier bénéficie désormais de :

  • Meilleures suggestions de code front-end,
  • Suivi rigoureux des instructions de format,
  • Exécution plus fiable et cohérente des outils de développement.

Screen 2025 04 14 at 19.59.05

Cela ouvre la voie à un usage professionnel renforcé pour les développeurs, en particulier dans des contextes complexes comme le refactoring, la correction de bugs ou les tests unitaires automatisés.

Tarifs adaptés à tous les besoins

OpenAI propose ces modèles avec une nouvelle grille tarifaire :

Modèle Coût par million de tokens (entrée/sortie)
GPT-4.1 2 dollars/8 dollars
GPT-4.1 Mini 0,40 dollar/1,60 dollar
GPT-4.1 Nano 0,10 dollar/0,40 dollar

Ces tarifs visent à démocratiser l’accès à des modèles puissants tout en proposant des solutions adaptées à différents usages, du grand public aux entreprises.

Fin programmée de GPT-4 classique, GPT-5 repoussé à plus tard, et bientôt… le modèle de raisonnement O3

OpenAI a annoncé que GPT-4 (version originale) sera retiré de ChatGPT le 30 avril. Le modèle GPT-4o, enrichi et plus performant, est désormais le modèle par défaut utilisé sur la plateforme. Avec GPT-4.1, OpenAI va encore plus loin, consolidant sa place de leader sur le marché.

Alors que certains attendaient GPT-5 pour mai, le PDG Sam Altman a récemment indiqué que le lancement était reporté. L’équipe a rencontré des difficultés à intégrer de façon fluide l’ensemble des innovations prévues. Altman promet toutefois que GPT-5 arrivera « dans quelques mois ».

Des références au modèle de raisonnement o3 (et à une version « mini » baptisée o4) ont déjà été repérées dans la dernière version Web de ChatGPT. Ces nouveaux modèles pourraient pousser encore plus loin la logique conversationnelle et les capacités de raisonnement profond de l’IA.

 

Lire plus
Intelligence Artificielle

OpenAI renforce l’accès à ses modèles : La vérification d’organisation devient obligatoire !

OpenAI renforce l'accès à ses modèles : La vérification d'organisation devient obligatoire !

OpenAI prévoit de renforcer les contrôles d’accès à ses modèles d’IA les plus avancés à travers un nouveau processus appelé Verified Organization (Organisation Vérifiée). D’après une page d’assistance récemment mise en ligne, cette vérification pourrait devenir obligatoire pour les entreprises souhaitant accéder à certaines capacités futures de la plateforme.

Qu’est-ce que le processus « Verified Organization » ?

Ce système d’authentification impose la fourniture d’une pièce d’identité émise par un gouvernement d’un pays pris en charge par l’API d’OpenAI. Une même pièce d’identité ne pourra être utilisée que pour une organisation tous les 90 jours, et toutes les entités ne seront pas nécessairement éligibles à la vérification.

OpenAI justifie cette mesure par son engagement à garantir un usage sécurisé et responsable de l’intelligence artificielle. L’entreprise précise que ce système vise à limiter les usages malveillants ou non conformes de ses API par une minorité de développeurs qui contournent volontairement les règles d’utilisation.

Une stratégie de sécurisation face à des usages risqués

Ce renforcement de la sécurité intervient dans un contexte où les modèles d’OpenAI deviennent de plus en plus puissants et donc sensibles. La société a déjà publié plusieurs rapports concernant des tentatives d’utilisation malveillante de ses technologies, notamment par des entités liées à la Corée du Nord.

De plus, cette initiative semble aussi viser à protéger la propriété intellectuelle. Un rapport de Bloomberg publié plus tôt cette année évoquait une enquête interne d’OpenAI sur une possible exfiltration massive de données via son API en 2024 par un groupe affilié à DeepSeek, un laboratoire chinois spécialisé en IA — possiblement pour entraîner ses propres modèles, en violation des conditions d’utilisation.

En réponse, OpenAI avait déjà restreint l’accès à ses services en Chine à l’été 2024.

En résumé, cette nouvelle vérification vise à renforcer la confiance et la traçabilité dans l’usage des modèles d’IA les plus puissants d’OpenAI. Elle pourrait devenir un prérequis obligatoire pour certaines fonctionnalités à venir, particulièrement dans les environnements professionnels et de recherche sensibles. Une évolution logique à mesure que l’intelligence artificielle devient un outil stratégique à l’échelle mondiale.

Lire plus
Intelligence Artificielle

ChatGPT : De Ghibli au Starter Pack Barbie, l’IA qui crée les nouvelles tendances visuelles

ChatGPT : De Ghibli au Starter Pack Barbie, l'IA qui crée les nouvelles tendances visuelles

Après avoir fait sensation avec la tendance des images de style Ghibli, ChatGPT continue de séduire le Web avec une nouvelle vague créative : transformer des portraits en figurines d’action ou poupées de collection. Bienvenue dans l’univers du Barbie Box Challenge, une tendance née sur LinkedIn qui commence à s’imposer sur les réseaux sociaux.

De Ghibli à Barbie : ChatGPT, moteur des tendances visuelles

Le succès explosif du générateur d’images de ChatGPT est en grande partie dû à la mode virale des portraits façon Studio Ghibli. Cette fonctionnalité, lancée il y a quelques semaines, a été si populaire qu’OpenAI a dû limiter l’accès à la génération d’images pour les comptes gratuits, afin d’éviter la surcharge des serveurs.

Aujourd’hui, une nouvelle version de cette créativité alimentée par l’IA fait surface : se transformer en figurine de collection, enfermée dans un emballage rappelant ceux des jouets. Cette fois, ce sont les professionnels sur LinkedIn qui s’illustrent avec des images stylisées et personnalisées, incarnant leur alter ego en version action figure ou Barbie, avec accessoires et branding soigné.

L’AI Action Figure : la déclinaison la plus populaire

Plusieurs variantes de la tendance coexistent, mais celle qui fait le plus parler d’elle est l’« AI Action Figure ». L’idée : créer une version plastique de soi-même, présentée dans un blister transparent, avec des accessoires typiques du monde du travail — ordinateur portable, livre, tasse de café — une esthétique parfaitement adaptée à LinkedIn.

D’autres préfèrent adopter une image plus commerciale avec la « Barbie Box », une boîte rose flashy, une typographie inspirée du film de 2023, et une ambiance résolument marketing.

ChatGPT Image 12 avr. 2025 22 48 31

Bien que cette tendance ait débuté sur LinkedIn, elle s’est déjà répandue sur Facebook, Instagram et TikTok. Toutefois, elle n’atteint pas encore l’ampleur du phénomène Ghibli, toujours en tête des recherches sur Google.

Une tendance moins controversée, mais surveillée

Contrairement aux créations Ghibli, qui ont suscité des critiques de la part des artistes et fans du studio sur les questions de droit d’auteur et d’éthique, les figurines IA ne rencontrent pour l’instant que peu de backlash. Mais cela pourrait évoluer si la tendance prend plus d’ampleur ou touche des univers visuels protégés.

Créer sa propre figurine Barbie ou Action Figure

Voici comment vous pouvez vous aussi entrer dans la boîte :

  1. Rendez-vous sur ChatGPT et connectez-vous.
  2. Téléversez une photo de vous claire et bien cadrée.
  3. Écrivez une prompt détaillée, par exemple : « Crée une figurine de collection représentant la personne sur cette photo, dans un emballage style Barbie/action figure, avec accessoires : laptop, mug, livre. Thème : vie de bureau. »
  4. Personnalisez les détails : pose, tenue, couleurs, accessoires visibles dans des moules.
  5. Générez et affinez jusqu’à obtenir le rendu parfait.

ChatGPT Image 9 avr. 2025 14 23 06 png

Tendance semi-virale, mais forte en symboles

Malgré l’enthousiasme, la tendance reste modérément virale. Les publications viennent surtout de marketeurs, créateurs de contenu B2B et aspirants influenceurs LinkedIn, souvent avec peu d’engagement.

Le Barbie Box Challenge démontre une fois de plus la puissance créative de l’IA lorsqu’elle est mise entre les mains du grand public. Ludique, personnalisable et facile à partager, cette tendance s’inscrit dans une continuité logique : celle de l’appropriation des outils IA pour l’expression de soi.

Que vous soyez un professionnel du marketing ou simplement curieux, transformer votre image en figurine est désormais à portée de clic.

Lire plus