fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

OpenAI acquiert Rockset pour renforcer son infrastructure de recherche

OpenAI acquiert Rockset pour renforcer son infrastructure de recherche

OpenAI s’apprête à renforcer sa pile technologique. OpenAI a récemment annoncé l’acquisition de Rockset, une startup spécialisée dans l’analyse d’entreprise, dans le but de « renforcer notre infrastructure de récupération à travers nos produits, » selon un article de blog publié vendredi.

Bien que les termes de l’accord n’aient pas été divulgués, OpenAI a confirmé qu’elle intégrerait les capacités d’indexation et d’interrogation de Rockset afin de renforcer son infrastructure de recherche pour l’ensemble de ses produits. L’entreprise a également ajouté que toute l’équipe de Rockset sera transférée à OpenAI dans le cadre de l’acquisition.

Il s’agit de la deuxième acquisition majeure annoncée publiquement par OpenAI, après celle de la startup new-yorkaise Global Illumination, Inc. l’année dernière.

Cette décision intervient également alors que la concurrence dans le domaine de l’IA générique continue de s’intensifier. Cette semaine encore, Anthropic, l’un des principaux concurrents d’OpenAI, a publié Claude 3.5 Sonnet, un puissant LLM qui surpasse de manière convaincante le GPT-4o récemment publié par OpenAI sur les bancs d’essai.

Comment Rockset va-t-il alimenter OpenAI ?

Fondée en 2016, Rockset fournit aux entreprises une base de données analytique en temps réel basée sur le cloud qui permet aux développeurs de créer des applications à forte intensité de données, telles que celles destinées à la personnalisation et à l’automatisation informatique, à l’échelle.

pch diagram jpg

Le produit ingère et indexe en permanence des données provenant de sources telles que Kafka, MongoDB, DynamoDB et S3, ce qui permet de disposer d’informations et d’effectuer des requêtes en temps réel. Il peut exécuter des requêtes SQL en moins d’une seconde sur des données semi-structurées, sans nécessiter de schéma prédéfini.

Au cœur de Rockset se trouve la base de données intégrée hautes performances pour les données clé-valeur RocksDB, créé par Meta (anciennement Facebook). Il agit comme un index secondaire externe pour les bases de données OLTP, les data lakes et les plateformes de streaming, accélérant les requêtes analytiques en temps réel et fournissant une isolation des performances pour les systèmes transactionnels primaires. Tout au long de l’année 2023, l’entreprise a amélioré son produit avec des capacités visant à alimenter les cas d’utilisation de l’IA.

Maintenant, avec l’acquisition par OpenAI, la pile technologique construite par Rockset, en particulier les capacités d’indexation et d’interrogation « de classe mondiale », alimentera la pile de recherche d’OpenAI.

Une bonne nouvelle pour les utilisateurs ?

Les deux entreprises n’ont pas encore communiqué les détails exacts de cette intégration, mais une chose est sûre : Rockset permettra aux produits d’OpenAI de répondre aux questions des clients avec les informations les plus récentes et les plus pertinentes, plus rapidement que jamais.

« L’infrastructure de Rockset permet aux entreprises de transformer leurs données en informations exploitables. Nous sommes ravis d’apporter ces avantages à nos clients en intégrant les fondations de Rockset dans les produits OpenAI », a déclaré Brad Lightcap, COO d’OpenAI, dans un communiqué.

Cette acquisition marque une étape significative pour OpenAI, renforçant sa capacité à offrir des solutions d’IA plus robustes et évolutives.

Lire plus
Intelligence Artificielle

Apple Intelligence : Pas de lancement en Europe en raison de la DMA

Apple Intelligence : Pas de lancement en Europe en raison de la DMA

Apple a déclaré qu’elle ne lancerait pas son Apple Intelligence (A.I.) dans l’Union européenne, invoquant des préoccupations liées à la loi sur les marchés numériques (DMA) de l’Union.

Apple a dévoilé sa très attendue I.A. lors de la conférence WWDC, promettant d’améliorer considérablement Siri grâce à l’IA générative, ainsi que d’apporter une foule de fonctionnalités puissantes à iOS et macOS. L’entreprise a reçu de nombreux éloges pour sa révélation, les clients, les critiques et les analystes ayant été enthousiasmés par l’annonce de l’entreprise.

Malgré la médiatisation, Bloomberg affirme qu’Apple ne lancera pas Apple Intelligence dans l’UE en raison de problèmes réglementaires liés à la DMA. Selon Apple, les exigences de la DMA selon lesquelles les « gardiens » doivent permettre à des entreprises tierces d’interopérer avec leurs services pourraient « forcer » des compromis en matière de confidentialité et de sécurité.

En raison des incertitudes réglementaires engendrées par le Digital Markets Act, nous ne pensons pas être en mesure de déployer trois de ces [nouvelles] fonctionnalités — iPhone Mirroring, améliorations du partage d’écran SharePlay et Apple Intelligence — auprès de nos utilisateurs de l’UE cette année.

Apple est déjà dans le collimateur de l’Union européenne en raison de sa conformité avec le DMA en ce qui concerne l’App Store et la possibilité pour les développeurs de diriger les utilisateurs vers d’autres méthodes de paiement. Margrethe Vestager, commissaire européenne à la concurrence, a déclaré que l’Union européenne avait de sérieux problèmes avec l’entreprise.

« Nous avons un certain nombre de problèmes avec Apple ; je les trouve très sérieux. J’ai été très surprise que nous ayons de tels soupçons de non-conformité de la part d’Apple », a déclaré Margrethe Vestager en début de semaine.

On ne sait pas ce que va devenir Apple Intelligence

Il est difficile de savoir dans quelle mesure les nouvelles fonctionnalités d’Apple seront contraires à la DMA, ou si l’entreprise fait simplement preuve d’une grande prudence face aux inquiétudes concernant le respect de la DMA. Mais, Apple Intelligence couvre à lui seul les mises à jour de Siri, les Genmoji, la gestion des notifications, l’exécution d’actions scénarisées dans différentes applications, ainsi que la génération de textes et de résumés.

On ne sait pas non plus ce qu’il faudra pour que l’entreprise reconsidère sa position sur l’I.A. dans l’UE.

Lire plus
Intelligence Artificielle

ChatGPT gratuit amélioré : Lecture et analyse de PDF dacilitée

ChatGPT gratuit amélioré : Lecture et analyse de PDF dacilitée

OpenAI a récemment amélioré la version gratuite de ChatGPT pour rendre les outils d’IA accessibles à un maximum de personnes. Depuis mai, cette mise à jour permet au chatbot de lire des captures d’écran, des documents, et des photos, facilitant ainsi l’analyse des PDF.

Le nouveau ChatGPT permet d’analyser les PDF, produire du contenu à partir du texte, répondre à des questions sur le document, et fournir des résumés concis et lisibles.

Pour accéder à cette fonctionnalité, les utilisateurs doivent cliquer sur l’icône de trombone située à gauche du champ de saisie des commandes. Ils peuvent alors choisir parmi trois options : télécharger depuis l’ordinateur, se connecter à Google Drive ou à Microsoft OneDrive.

Une fois le PDF téléchargé, le contenu est envoyé à l’assistant chatbot, et les utilisateurs peuvent poser des questions ou demander des tâches spécifiques, comme structurer des actions en un e-mail.

L’entreprise en a intégré davantage dans la version gratuite, car elle déclare : « Notre mission consiste notamment à mettre des outils d’IA avancés à la disposition du plus grand nombre de personnes possible ». « Chaque semaine, plus de cent millions de personnes utilisent ChatGPT. Nous commençons à déployer plus d’intelligence et d’outils avancés pour les utilisateurs de la version gratuite de ChatGPT au cours des prochaines semaines ».

Avantages et personnalisation de ChatGPT Edu

En parallèle, OpenAI a lancé ChatGPT Edu, une version dédiée aux universités, offrant des fonctionnalités sophistiquées et un accès au modèle d’IA le plus récent, le GPT-4o. Ce modèle, plus performant que les versions précédentes, excelle dans le traitement de divers types de données, y compris les problèmes mathématiques et de codage. Il offre également une limite de messages supérieure à celle de la version gratuite de ChatGPT.

ChatGPT Edu peut être adapté pour répondre à des objectifs éducatifs spécifiques, ce qui le rend utile dans diverses disciplines académiques. Par exemple, une école de langues peut programmer le chatbot pour avoir des conversations avec les étudiants, les aidant ainsi à pratiquer et à apprendre une nouvelle langue.

Une autre caractéristique clé de ChatGPT Edu est son accent sur la confidentialité. OpenAI garantit que les informations traitées par cette version ne seront pas utilisées pour entraîner des ensembles de modèles accessibles au public.

Utilisation des données et confidentialité

Les universités peuvent utiliser leurs données pour adapter le modèle aux besoins spécifiques de leur environnement d’apprentissage. Cela permet une spécialisation dans des domaines pertinents pour chaque institution. OpenAI assure que les données manipulées par ChatGPT Edu restent privées et ne sont pas utilisées pour former des modèles publics, répondant ainsi aux préoccupations de confidentialité des utilisateurs.

Avec ces nouvelles fonctionnalités et le lancement de ChatGPT Edu, OpenAI continue de rendre les outils d’IA plus accessibles et mieux adaptés aux besoins spécifiques des utilisateurs, qu’ils soient individuels ou institutionnels.

Lire plus
Intelligence Artificielle

Claude 3.5 Sonnet : L’IA révolutionnaire d’Anthropic pour les entreprises

Claude 3.5 Sonnet : L’IA révolutionnaire d’Anthropic pour les entreprises

La course à l’armement en matière d’IA se poursuit à un rythme soutenu : Anthropic, une entreprise leader dans la recherche en intelligence artificielle, a récemment annoncé la sortie de Claude 3.5 Sonnet, un modèle d’IA révolutionnaire alliant performance inégalée et rentabilité. Cette dernière itération de la famille de modèles Claude est prête à transformer le paysage de l’IA pour les entreprises, offrant des capacités de pointe à une fraction du coût de ses concurrents.

« Claude 3.5 Sonnet est désormais le modèle le plus capable, intelligent et économique disponible sur le marché aujourd’hui », a déclaré Daniela Amodei, co-fondatrice d’Anthropic. « Parmi les 7 métriques standards d’intelligence et de capacité, Claude 3.5 Sonnet surpasse tous ses concurrents sur 6 d’entre elles et est très proche sur la 7e. Pour les métriques de vision standard, nous sommes en tête du classement sur 4 des 5, et en 2e position sur 1 ».

Claude 3 5 Sonnet Eval General jpg

L’introduction de Claude 3.5 Sonnet intervient seulement trois mois et demi après la sortie de Claude 3.0 en mars, soulignant l’engagement d’Anthropic en faveur de l’innovation rapide. « Nous avons dépassé notre modèle phare, Opus, avec Sonnet 3.5, et nous le proposons à un prix proche du cinquième de celui-ci », a révélé Amodei. Claude 3.5 Sonnet sera finalement le modèle intermédiaire de la gamme — Anthropic utilise le nom Haiku pour son plus petit modèle, Sonnet pour l’option intermédiaire grand public, et Opus pour son modèle le plus haut de gamme.

image 3 jpg

Qu’est-ce que tout cela signifie en réalité ? Anthropic affirme que Claude 3.5 Sonnet sera bien meilleur pour écrire et traduire du code, gérer des workflows en plusieurs étapes, interpréter des diagrammes et des graphiques, et transcrire du texte à partir d’images. Ce nouveau Claude amélioré est aussi apparemment plus apte à comprendre l’humour et peut écrire d’une manière beaucoup plus humaine.

L’approche d’Anthropic, centrée sur le marché des entreprises, la distingue de ses concurrents comme OpenAI, qui cible principalement les consommateurs avec ses modèles GPT. Alors que OpenAI a fait des avancées significatives pour repousser les limites des capacités de l’IA, Anthropic s’est taillé une niche en adaptant ses offres aux besoins spécifiques des entreprises. Cette différence stratégique est évidente dans les fonctionnalités et la tarification de Claude 3.5 Sonnet, qui privilégie les facteurs clés les plus importants pour les clients professionnels.

Artifacts de Claude 3.5 Sonnet : Faciliter la collaboration en entreprise

Claude 3 5 artifacts jpg

Une des fonctionnalités remarquables de Claude 3.5 Sonnet est l’introduction de Artifacts, un outil de collaboration conçu pour les équipes travaillant au sein des entreprises. « Artifacts permet aux équipes de rassembler de nombreuses informations, comme des documents ou des dossiers pour un cabinet juridique, ou des actifs visuels et des directives de ton pour une agence de marketing », a expliqué Amodei. « Une équipe de marketeurs peut désormais se réunir et co-développer un projet avec Claude dans l’espace de travail grâce à Artifacts ». Artifacts semble être un signal de la vision à long terme de Claude.

Bien que Claude 3.5 Sonnet excelle dans les entrées de texte et d’image, Anthropic a pris la décision stratégique de ne pas prioriser les entrées ou sorties vocales en se basant sur les retours des clients. L’approche d’Anthropic, axée sur la fourniture de valeur aux entreprises, a été un moteur clé de leur cycle de développement rapide.

Alors que la course à l’IA continue de s’intensifier, avec des concurrents comme GPT-4o d’OpenAI et Llama 3 de Meta faisant les gros titres, Claude 3.5 Sonnet d’Anthropic est bien positionné pour avoir un impact significatif sur le marché de l’IA pour les entreprises. Avec ses capacités inégalées et son rapport coût-efficacité, les entreprises de divers secteurs vont probablement s’intéresser à cet outil puissant pour améliorer leurs opérations et stimuler l’innovation.

Repousser les limites de l’intelligence artificielle

La sortie de Claude 3.5 Sonnet marque une nouvelle étape dans la mission d’Anthropic de repousser les limites de l’intelligence artificielle tout en priorisant les besoins des clients professionnels. Alors que l’entreprise continue d’interagir avec sa clientèle diversifiée et de recueillir des retours précieux, l’avenir s’annonce prometteur pour Anthropic et les entreprises qui bénéficieront de leur technologie révolutionnaire.

 

Lire plus
Intelligence Artificielle

Apple explique pourquoi Apple Intelligence est limité au dernier iPhone 15 Pro

Apple explique pourquoi Apple Intelligence est limité au dernier iPhone 15 Pro

Lors de la WWDC 2024, Apple a dévoilé Apple Intelligence, une nouvelle expérience personnalisée basée sur l’IA, intégrée dans les mises à jour logicielles pour iPhone, iPad et Mac. Utilisant des modèles de Large Language Model (LLM), cette technologie Apple Intelligence est pour l’instant réservée aux iPhone 15 Pro et iPhone 15 Pro Max, ainsi qu’aux Mac et iPad équipés de puces M1 ou ultérieures.

La restriction de cette technologie aux derniers modèles d’iPhone a suscité des controverses. Certains y voient une manœuvre d’Apple pour inciter les utilisateurs à abandonner leurs anciens iPhone au profit des nouveaux. Toutefois, selon un épisode spécial de « The Talk Show » de John Gruber, cette théorie est remise en question.

John Giannandrea, responsable de l’IA et de l’apprentissage automatique chez Apple, a expliqué que les modèles Large Language Model sont très gourmands en ressources, nécessitant une puissance de traitement et une bande passante considérables.

Bien qu’il soit techniquement possible de faire fonctionner ces modèles sur des appareils plus anciens, leur lenteur les rendrait inutilisables. Greg Joswiak, responsable du marketing, a nié que cette limitation soit une stratégie pour vendre de nouveaux iPhone, soulignant que les iPad et Mac récents non plus ne supportent pas Apple Intelligence.

Besoins matériels spécifiques pour Apple Intelligence

Craig Federighi, chef de l’ingénierie logicielle chez Apple, a ajouté que l’entreprise essaie toujours d’apporter de nouvelles fonctionnalités aux anciens appareils, mais Apple Intelligence nécessite un matériel spécifique pour fonctionner correctement. Les modèles iPhone 15 Pro utilisent la puce A17 Pro avec un moteur Neural Engine à 16 cœurs, beaucoup plus rapide que la puce A16 des modèles plus anciens. Federighi a également mentionné que la RAM joue un rôle crucial, tous les appareils compatibles disposant d’au moins 8 Go de RAM.

Ainsi, si vous ne possédez pas un iPhone 15 Pro mais souhaitez bénéficier d’Apple Intelligence, vous devrez peut-être attendre la sortie de l’iPhone 16, prévue pour l’automne. Cependant, bien que Apple Intelligence ne soit pas disponible sur les anciens iPhone, de nombreuses nouvelles fonctionnalités sont attendues avec la mise à jour iOS 18. Tous les iPhone capables de fonctionner sous iOS 17, y compris l’iPhone XR de 2018, seront compatibles avec iOS 18.

L’avenir de l’IA personnalisée chez Apple

Apple Intelligence représente une avancée majeure dans les expériences IA personnalisées, mais ses exigences matérielles soulignent le défi permanent de l’innovation et de l’accessibilité. Bien que ces nouvelles fonctionnalités ne soient pas immédiatement disponibles pour tous, il est clair qu’Apple investit dans l’avenir de l’IA sur ses appareils.

Lire plus
Intelligence Artificielle

Voix personnalisables pour Gemini : Google s’arme face à ChatGPT

Google Gemini Android App Logo

La compétition pour l’IA la plus intelligente s’intensifie avec ChatGPT et Gemini en tête, et Apple qui rejoint récemment la bataille. Google, de son côté, semble flouter les lignes entre son puissant Gemini et son Assistant plus fiable.

Actuellement, Gemini de Google ne permet pas aux utilisateurs de choisir différentes voix pour ses réponses vocales. Cependant, une récente découverte dans la dernière version bêta de l’application Google pour Android (version 15.24.28.29. arm 64 beta) révèle une nouvelle option sous les paramètres de Voix dans Gemini appelée « Sélection de la voix », suggérant que cette fonctionnalité pourrait bientôt être ajoutée.

La description de ce paramètre permet aux utilisateurs de « Choisir quelle voix doit être préférée pour les réponses vocales pour la recherche ». Deux nouvelles voix, nommées Ruby et River, y figurent. Cependant, lorsqu’elles sont sélectionnées, ces voix ne produisent aucun son, laissant planer le doute sur le fait qu’il s’agisse de nouvelles voix ou de versions renommées des voix existantes de Google Assistant.

Dans l’application Google, vous trouverez des paramètres distincts pour ses deux assistants numériques : Google Assistant et Gemini. Actuellement, les paramètres de Google Assistant permettent de choisir parmi 12 voix différentes, mais les paramètres de Gemini ne proposent pas encore cette option.

Si Gemini obtient effectivement une sélection de voix, il est probable que cela ne se limitera pas à seulement deux voix pour longtemps. OpenAI a déjà démontré les capacités vocales impressionnantes de ChatGPT 4 o, y compris un incident notable où une de ses voix ressemblait fortement à celle de Scarlett Johansson, suscitant une certaine controverse.

Assistant Google et Gemini : des forces distinctes

Pour l’instant, Gemini et Google Assistant se distinguent comme des assistants IA uniques de Google, chacun brillant dans leurs spécialités respectives. Si vous privilégiez la compréhension du langage naturel et la gestion de tâches complexes, essayer Gemini pourrait en valoir la peine malgré les limitations potentielles sur les fonctionnalités et la compatibilité des appareils.

À l’inverse, si vous avez besoin d’un assistant polyvalent excédant dans la gestion des appareils domestiques intelligents et prenant en charge une large gamme de gadgets, rester avec Google Assistant est actuellement l’option la plus sûre.

Lire plus
Intelligence Artificielle

Microsoft prévoit des systèmes d’IA avec mémoire durable et raisonnement robuste

Microsoft prévoit des systèmes d’IA avec mémoire durable et raisonnement robuste

Les systèmes d’IA générative pourraient bientôt être capables de passer des examens de doctorat grâce à une mémoire plus « durable » et des opérations de raisonnement plus robustes, a révélé le CTO de Microsoft, Kevin Scott, lors d’un Berggruen Salon à Los Angeles avec Reid Hoffman plus tôt cette semaine.

« Il est assez étrange actuellement que ces interactions avec les agents et la mémoire soient entièrement épisodiques », a-t-il déploré. « Vous avez une transaction, vous faites une chose. C’est utile ou non pour la tâche en cours, puis l’IA oublie tout ». Le système d’IA n’apprend pas et ne se souvient même pas des interactions précédentes avec l’utilisateur, a-t-il poursuivi. « Il n’y a aucun moyen de se référer à une chose que vous avez essayé de faire résoudre [par l’IA] dans le passé ».

Cependant, Scott reste optimiste : « Nous voyons techniquement toutes les choses se mettre en place pour avoir des mémoires vraiment durables avec les systèmes ». Avec une mémoire plus persistante, les futurs systèmes d’IA pourront répondre plus naturellement et plus précisément sur plusieurs conversations plutôt que d’être limités à la session actuelle.

OpenAI a annoncé en février qu’il commençait à tester un nouveau système de mémoire persistante, le déployant auprès de certains utilisateurs gratuits et abonnés Plus. Activer cette fonctionnalité permet à l’IA de se souvenir des préférences de ton, de voix et de format entre les conversations ainsi que de faire des suggestions dans de nouveaux projets basés sur des détails mentionnés dans des discussions précédentes.

Scott était également optimiste quant à l’amélioration de la « fragilité » constatée dans le raisonnement de nombreux systèmes d’IA actuels. « Elle ne peut pas résoudre des problèmes mathématiques très complexes », a-t-il expliqué. « Elle doit faire appel à d’autres systèmes pour des tâches très compliquées ».

Les systèmes d’IA surpassent déjà leurs homologues humains

« Le raisonnement, je pense, s’améliore beaucoup », a-t-il poursuivi. Il compare GPT-4 et la génération actuelle de modèles à des lycéens passant leurs examens. Cependant, la prochaine génération d’IA « pourrait être celle qui passerait votre examen de qualification ».

À ce jour, les systèmes d’IA générative ont surpassé leurs homologues humains dans divers formats d’examens et de tâches. En novembre dernier, par exemple, GPT-4 a passé l’examen de déontologie multistate (MPRE), mieux connu sous le nom d’examen du barreau, avec 76 % de bonnes réponses — soit six points de plus que la moyenne nationale pour les humains.

Scott a rapidement souligné que former des IA génératives à passer des examens de doctorat « semble probablement plus important que ça ne l’est réellement… le vrai test sera ce que nous choisissons d’en faire ».

Scott était particulièrement enthousiaste de voir les barrières à l’entrée tomber si rapidement. Il a noté que lorsqu’il s’est lancé dans l’apprentissage automatique il y a deux décennies, son travail nécessitait des connaissances de niveau supérieur, des piles et des piles de « papiers techniques très intimidants et compliqués pour comprendre comment faire ce qu’il voulait faire », et environ 6 mois de codage. Cette même tâche aujourd’hui, a-t-il dit, « un lycéen pourrait la faire un samedi matin ».

Accélérer la démocratisation de l’IA avec Microsoft et les autres

Ces barrières à l’entrée abaissées vont probablement accélérer la démocratisation de l’IA, a conclu Scott. Trouver des solutions aux crises sociales, environnementales et technologiques auxquelles l’humanité est confrontée ne doit pas — et ne peut pas — être la seule responsabilité « des personnes travaillant dans les entreprises technologiques de la Silicon Valley ou des personnes diplômées de doctorats des cinq meilleures universités », a-t-il dit. « Nous avons 8 milliards de personnes dans le monde qui ont aussi des idées sur ce qu’elles veulent faire avec des outils puissants, si elles y avaient accès ».

Lire plus
Intelligence Artificielle

ChatGPT gratuit vs ChatGPT Plus : Quel est le meilleur choix pour vous ?

ChatGPT gratuit vs payant : Quel est le meilleur choix pour vous ?

L’avènement de modèles de langage IA tels que ChatGPT a révolutionné la façon dont nous interagissons avec la technologie. Ces modèles, alimentés par des algorithmes avancés d’apprentissage automatique, sont capables de comprendre et de générer des textes semblables à ceux des humains, ce qui en fait des outils inestimables pour toute une série d’applications, du service clientèle à la création de contenu.

OpenAI, l’un des pionniers dans ce domaine, propose des versions gratuites et payantes de ChatGPT. Il est essentiel de comprendre les différences entre ces options pour les utilisateurs qui souhaitent tirer le meilleur parti de cette technologie de pointe.

Comprendre ChatGPT : Un bref aperçu

ChatGPT, développé par OpenAI, est un modèle linguistique de pointe qui exploite la puissance de l’intelligence artificielle pour générer des textes cohérents et pertinents sur le plan contextuel en fonction des demandes de l’utilisateur. Il est construit sur l’architecture GPT (Generative Pre-trained Transformer), qui est conçue pour comprendre le contexte, générer du texte et même engager des conversations qui ressemblent remarquablement à celles des humains.

Les capacités de ChatGPT en ont fait une solution de choix pour diverses tâches telles que la rédaction d’e-mails, l’écriture de code, la réponse à des questions, etc.

Gratuit ou payant : quelle est la différence ?

1ek9TCfC blIGHhp6g7IZpw jpg

La principale différence entre les versions gratuite et payante de ChatGPT réside dans l’accès aux fonctionnalités, la performance et la disponibilité. Je vais approfondir ces aspects afin de fournir une image claire de ce que les utilisateurs peuvent attendre de chaque option.

1. Accès et disponibilité

Version gratuite

  • Limites d’accès : La version gratuite de ChatGPT offre un accès limité au modèle. Les utilisateurs peuvent interagir avec ChatGPT, mais il y a des contraintes d’utilisation qui peuvent inclure une limite sur le nombre de messages ou de sessions par jour.
  • Disponibilité : Les utilisateurs gratuits peuvent avoir un accès limité pendant les périodes de pointe en raison d’une forte demande. OpenAI donne la priorité à l’accès des clients payants pendant ces périodes, ce qui peut entraîner des retards ou une indisponibilité temporaire pour les utilisateurs gratuits.

Version payante (ChatGPT Plus) :

  • Accès amélioré : Les abonnés à ChatGPT Plus bénéficient de limites d’utilisation plus généreuses, ce qui permet des interactions plus poussées sans craindre d’atteindre un plafond.
  • Accès prioritaire : L’un des principaux avantages de la version payante est l’accès prioritaire pendant les périodes de fort trafic. Cela signifie que les utilisateurs payants sont moins susceptibles de rencontrer des temps d’arrêt ou des retards, ce qui garantit une expérience plus fluide et plus fiable.

2. Performance et vitesse

Version gratuite :

  • Performance standard : Les utilisateurs de la version gratuite ont accès aux capacités de base de ChatGPT. Bien que puissante, la performance du modèle peut être plus lente que celle de la version payante, en particulier pendant les heures de pointe.
  • Risque de décalage : En raison de la charge du serveur et de la priorité accordée aux utilisateurs payants, la version gratuite peut parfois présenter des décalages ou des temps de réponse plus lents.

Version payante (ChatGPT Plus) :

  • Performance optimisée : Les abonnés de ChatGPT Plus bénéficient de temps de réponse plus rapides et de performances améliorées. OpenAI alloue plus de ressources aux utilisateurs payants, ce qui garantit des interactions plus rapides et plus efficaces.
  • Latence réduite : La version payante est conçue pour gérer des volumes de trafic plus importants avec un impact minimal sur les performances, offrant ainsi une expérience utilisateur plus transparente.

3. Fonctionnalités et capacités

Version gratuite :

  • Fonctionnalités de base : La version gratuite de ChatGPT comprend l’accès aux fonctionnalités de base du modèle. Les utilisateurs peuvent générer du texte, obtenir des réponses à des questions et engager des conversations de base.
  • Mises à jour limitées : Les utilisateurs de la version gratuite n’ont pas toujours un accès immédiat aux dernières mises à jour ou fonctionnalités. OpenAI propose généralement de nouvelles fonctionnalités et améliorations aux clients payants en premier.

Version payante (ChatGPT Plus) :

  • Fonctionnalités avancées : ChatGPT Plus inclut souvent un accès anticipé aux nouvelles fonctionnalités et mises à jour. Les abonnés peuvent profiter des dernières améliorations avant qu’elles ne soient mises à la disposition des utilisateurs gratuits.
  • Capacités étendues : La version payante peut offrir des outils et des fonctionnalités supplémentaires qui ne sont pas disponibles dans la version gratuite, offrant une expérience d’IA plus robuste et plus polyvalente.

Faire le bon choix : Gratuit ou payant ?

Le choix entre la version gratuite et la version payante de ChatGPT dépend en grande partie des besoins individuels et des habitudes d’utilisation. Voici quelques considérations pour vous aider à prendre votre décision :

1. Utilisateurs occasionnels

Pour ceux qui utilisent ChatGPT de manière sporadique ou pour des tâches non critiques, la version gratuite peut suffire. Elle permet d’accéder aux fonctionnalités fondamentales du modèle sans engagement financier. Les utilisateurs occasionnels qui ne dépendent pas fortement des réponses en temps réel ou d’une utilisation intensive peuvent bénéficier de la version gratuite.

2. Utilisateurs professionnels et fréquents

Les individus et les entreprises qui dépendent de ChatGPT pour des tâches professionnelles, telles que la création de contenu, le support client, ou l’analyse fréquente de données, peuvent trouver la version payante plus avantageuse. Les performances améliorées, l’accès prioritaire et les fonctionnalités supplémentaires offertes par ChatGPT Plus peuvent améliorer de manière significative la productivité et garantir la fiabilité, faisant de l’abonnement un investissement rentable.

3. Considérations budgétaires

Le coût est toujours un facteur déterminant dans le choix d’un service d’abonnement. La version gratuite de ChatGPT offre un point d’entrée sans frais pour explorer et utiliser les capacités de l’IA. Cependant, pour les utilisateurs qui peuvent allouer un budget à l’amélioration des performances et des fonctionnalités, la version payante offre des avantages tangibles qui peuvent améliorer l’expérience globale.

Explorer les cas d’utilisation : Comment ChatGPT améliore la productivité

Pour mieux comprendre les applications pratiques de ChatGPT, explorons quelques cas d’utilisation courants et la manière dont les versions gratuites et payantes peuvent être exploitées.

1. Création de contenu

Version gratuite :

  • Rédaction : Les utilisateurs peuvent générer des ébauches d’articles de blog, d’articles et de contenu pour les réseaux sociaux. Le modèle peut fournir un bon point de départ, que les utilisateurs peuvent ensuite affiner et modifier.
  • Brainstorming: ChatGPT peut aider à la recherche d’idées et d’ébauches, en offrant une variété de perspectives sur un sujet donné.

Version payante :

  • Edition avancée : Avec des temps de réponse plus rapides et des capacités améliorées, les utilisateurs payants peuvent rationaliser le processus de création de contenu, facilitant ainsi la production d’un contenu soigné et de haute qualité.
  • Cohérence : La fiabilité de l’accès et des performances permet de respecter les délais sans interruption, ce qui est essentiel pour les créateurs de contenu professionnels.

2. Assistance à la clientèle

Version gratuite :

  • Assistance de base : Les entreprises peuvent utiliser la version gratuite pour répondre aux demandes de base des clients et fournir des informations générales pendant les heures creuses.
  • Assistance complémentaire : ChatGPT peut servir d’outil d’assistance supplémentaire, en traitant les questions moins critiques pendant que les agents humains se concentrent sur les problèmes plus complexes.

Version payante :

  • Assistance 24 heures sur 24, 7 jours sur 7 : La version payante garantit que le support client est disponible à tout moment, même pendant les périodes de pointe, offrant ainsi un service cohérent et fiable.
  • Interaction améliorée : Des temps de réponse plus rapides et un accès prioritaire permettent aux entreprises de traiter efficacement un plus grand nombre de demandes, ce qui améliore la satisfaction des clients.

3. Apprentissage et recherche

Version gratuite :

  • Aide aux devoirs : Les étudiants peuvent utiliser ChatGPT pour les aider à faire leurs devoirs, à effectuer des recherches et à comprendre des concepts complexes. La version gratuite est une ressource précieuse pour l’apprentissage et l’exploration.
  • Recherche de base : Les utilisateurs peuvent générer des résumés, des explications et des points de vue sur divers sujets, ce qui en fait un outil utile pour les recherches préliminaires.

Version payante :

  • Analyse approfondie : Pour des recherches plus détaillées et plus approfondies, la version payante offre un accès plus rapide à l’information et la possibilité de traiter des requêtes plus complexes.
  • Une ressource fiable : L’amélioration des performances permet aux utilisateurs de mener leurs recherches sans interruption, ce qui en fait un outil idéal à des fins académiques et professionnelles.

Conclusion : Équilibrer les besoins et les ressources

Le choix entre ChatGPT Gratuit et ChatGPT Plus se résume en fin de compte aux besoins individuels, à la fréquence d’utilisation et aux considérations budgétaires. La version gratuite constitue une solide introduction aux capacités des modèles de langage IA, offrant suffisamment de fonctionnalités pour les utilisateurs occasionnels et ceux qui explorent la technologie. En revanche, la version payante, ChatGPT Plus, offre des avantages significatifs en termes de performances, de fiabilité et d’accès à des fonctionnalités avancées, ce qui en fait un investissement précieux pour les professionnels et les utilisateurs fréquents.

Au fur et à mesure de l’évolution de l’IA, les offres de ChatGPT vont probablement s’étendre et s’améliorer, offrant encore plus d’options et de capacités aux utilisateurs. Que l’on opte pour la version gratuite ou payante, l’essentiel est d’adapter son choix à ses besoins spécifiques et à ses habitudes d’utilisation, afin de s’assurer que les avantages de cette puissante technologie sont pleinement exploités.

Lire plus
Intelligence Artificielle

Stability AI lève le voile sur Stable Diffusion 3 Medium : Puissant et compact

Stability AI lève le voile sur Stable Diffusion 3 Medium : Puissant et compact

Stability AI frappe fort avec la sortie de son nouveau modèle, Stable Diffusion 3 Medium, prouvant que le plus petit peut aussi être puissant. Stable Diffusion, le modèle phare de Stability AI, est reconnu pour ses capacités de génération d’images à partir de texte.

Après une prévisualisation le 22 février et une disponibilité publique via une API le 17 avril, Stability AI lance aujourd’hui Stable Diffusion 3 Medium, un modèle plus petit, mais tout aussi performant, conçu pour fonctionner sur des GPU grand public.

Le modèle Stable Diffusion 3 Medium accessible pour tous

Stable Diffusion Medium est conçu pour être un modèle plus compact, capable de tourner sur des GPU de consommation courante. Cette nouvelle version rend Stable Diffusion 3 encore plus attractif pour les utilisateurs et les organisations ayant des contraintes de ressources, tout en offrant une technologie de génération d’images de haute qualité. Disponible dès aujourd’hui via API et sur le service Stable Artisan via Discord, les poids du modèle seront également accessibles pour une utilisation non commerciale sur Hugging Face.

Avec cette nouvelle sortie, la version initiale de Stable Diffusion est désormais connue sous le nom de Stable Diffusion 3 (SD3) Large. Selon Christian Laforte, co-PDG de Stability AI, SD3 Large possède 8 milliards de paramètres, tandis que Stable Diffusion 3 Medium n’en compte que 2 milliards. « Contrairement à SD3 Large, SD3 Medium est plus petit et fonctionnera efficacement sur du matériel grand public », a déclaré Laforte.

Des exigences matérielles réduites

Stable Diffusion Medium révolutionne les charges de travail des IA génératives en nécessitant seulement 5 Go de VRAM GPU pour fonctionner. Cette exigence minimale permet au modèle de tourner sur une grande variété de PC grand public ainsi que sur des ordinateurs portables haut de gamme. Bien que 5 Go soit le minimum, Stability AI recommande 16 Go de VRAM GPU pour des performances optimales, un chiffre encore atteignable pour de nombreux utilisateurs.

Malgré un nombre de paramètres réduit, Stability AI affirme que Stable Diffusion 3 Medium offre une qualité exceptionnellement élevée, comparable à celle de SD3 Large. Selon Laforte, SD3 Medium se distingue par une série de capacités identiques à celles de SD3 Large, notamment le photoréalisme, l’adhérence aux prompts, la typographie, l’efficacité des ressources et le fine-tuning.

En matière d’adhérence aux prompts, Laforte a précisé que SD3 est capable de comprendre remarquablement bien les commandes en langage naturel, y compris la compréhension spatiale des éléments dans une image. Le modèle plus petit est également excellent en fine-tuning, capturant efficacement les détails des ensembles de données spécifiques.

L’une des grandes nouveautés de SD3 est l’amélioration de la typographie, une capacité qui se retrouve également dans SD3 Medium.

La caractéristique la plus marquante de SD3 Medium reste son efficacité en termes de ressources.

Lire plus
Intelligence Artificielle

OpenAI utilisera les puces d’Oracle pour davantage de calculs d’IA

OpenAI utilisera les puces d'Oracle pour davantage de calculs d'IA

OpenAI, Microsoft et Oracle s’unissent pour augmenter la capacité de calcul nécessaire au fonctionnement de ChatGPT. Dans le cadre d’un partenariat annoncé cette semaine, les trois entreprises collaborent afin qu’OpenAI puisse utiliser la plateforme Azure AI de Microsoft sur l’infrastructure d’Oracle.

Sam Altman, PDG d’OpenAI, n’a pas caché que son entreprise a besoin de beaucoup plus d’infrastructures pour alimenter ses services. Il a même discuté de la possibilité de lever des milliards de dollars pour un projet de puces IA. Dans le communiqué de presse sur l’accord avec Oracle cette semaine, il a déclaré que les puces d’Oracle « permettront à OpenAI de continuer à se développer ».

Jusqu’à présent, OpenAI s’est entièrement appuyée sur Microsoft pour ses besoins en calcul. En retour, Microsoft a investi 13 milliards de dollars pour une participation de 49 % dans la filiale à but lucratif d’OpenAI et le droit exclusif de licencier commercialement sa technologie.

Cependant, comme le montre cet accord avec Oracle, OpenAI a besoin de plus de calcul que ce que Microsoft peut fournir seul pour répondre à la demande et éviter les pannes futures de ChatGPT.

Microsoft et OpenAI sont manifestement sensibles à la manière dont cet accord avec Oracle est perçu.

Un partenariat avec Oracle qui peut tendre les relations entre Microsoft et OpenAI

Mercredi, OpenAI a publié une déclaration de suivi affirmant que « notre relation stratégique avec Microsoft reste inchangée » et que le nouveau partenariat « permet à OpenAI d’utiliser la plateforme Azure AI sur l’infrastructure OCI pour les besoins d’inférence et autres ». Pour information, l’inférence fait référence à l’exécution de modèles IA en production via des applications comme ChatGPT.

OpenAI a également précisé que la pré-formation de ses modèles de pointe « continue de se faire sur des supercalculateurs construits en partenariat avec Microsoft ». Il y a un autre niveau de gêne à ce que OpenAI et Oracle travaillent ensemble : Oracle fournit également une infrastructure à xAI, le rival d’OpenAI fondé par Elon Musk.

Lire plus
Intelligence Artificielle

Apple et OpenAI ne se paient pas encore l’un l’autre

Apple et OpenAI ne se paient pas encore l'un l'autre

Lors de la WWDC cette semaine, Apple a annoncé un partenariat avec OpenAI visant à intégrer ChatGPT dans son écosystème. Toutefois, selon un rapport de Mark Gurman de Bloomberg, aucune des deux parties ne paiera l’autre pour cette collaboration. Apple estime que l’exposition qu’OpenAI obtiendra grâce à sa présence sur des centaines de millions d’appareils Apple est « d’une valeur égale ou supérieure aux paiements monétaires ».

Le rapport indique également que cet accord n’est pas exclusif à OpenAI. Apple est en discussions avec Anthropic et Google pour offrir leurs chatbots respectifs en option alternative.

Un accord pour intégrer Gemini de Google est prévu plus tard cette année. Pour l’instant, Apple permettra aux utilisateurs d’envoyer certaines requêtes au modèle GPT-4o d’OpenAI sur iOS 18, iPadOS 18 et macOS Sequoia, mais son objectif est d’offrir une gamme de services d’IA de tierces parties, analogue à la manière dont le navigateur Safari prend en charge différents moteurs de recherche.

Partage des revenus : Une nouvelle source de profit pour Apple

Apple envisage de monétiser ces partenariats via des accords de partage des revenus. Cela implique de prendre une part des revenus générés par les fournisseurs d’IA qui monétisent les résultats de leurs chatbots, tels que l’abonnement de 20 dollars par mois pour ChatGPT Plus.

Apple anticipe que les chatbots et les modèles de langage vont commencer à détourner les utilisateurs des moteurs de recherche traditionnels. Cette situation n’est pas idéale pour l’accord extrêmement lucratif avec Google, qui paie des milliards de dollars à Apple pour être le moteur de recherche par défaut de l’iPhone. Les accords de partage des revenus pourraient être un moyen pour Apple de compenser cette perte.

Une stratégie d’IA en pleine évolution

Les annonces concernant Apple Intelligence et l’accord avec OpenAI marquent une étape importante dans la stratégie d’IA d’Apple, mais il ne s’agit encore que des premiers pas. La société vise à soutenir Apple Intelligence dans d’autres langues que l’anglais américain l’année prochaine, selon Bloomberg.

Apple envisage également des accords avec Baidu et Alibaba pour offrir des fonctionnalités de chatbot en Chine, où l’accès à ChatGPT est limité.

Lire plus
Intelligence Artificielle

ChatGPT-4o : Créez des jeux HTML5 en quelques minutes sans codage

ChatGPT-4o : Créez des jeux HTML5 en quelques minutes sans codage

De la génération d’images de tout ce que votre esprit peut imaginer aux générateurs de vidéos, l’intelligence artificielle a apparemment franchi un nouveau palier en découvrant la capacité de générer des jeux HTML5.

Construire un jeu n’est pas une mince affaire, même pour ceux qui ont des années d’expérience et de formation, mais il a été prouvé que l’IA peut créer de petits jeux HTML5 interactifs en quelques minutes, sans aucune connaissance en matière de codage.

C’est ce qu’a découvert Pierrick Chavellier, un artiste de l’IA, qui s’est rendu sur la plateforme X (anciennement Twitter) pour expliquer comment cela était possible à l’aide de ChatGPT-4o, décrivant le logiciel OpenAI comme étant « insensé ».

Il utilise d’autres outils comme Photoshop et Illustrator, ainsi que l’autre outil d’IA MidJourney pour rendre possible un mini-jeu entièrement fonctionnel. Ce n’est qu’un petit jeu, mais il montre qu’il est possible de l’améliorer chaque fois que l’IA s’étend et se développe.

Comment développer un jeu HTML5 d’IA avec ChatGPT ?

Au lieu de créer les sprites de marche ou de course dans un générateur d’images, le créateur s’est rendu sur un site externe pour télécharger un site vectoriel du personnage. Les sprites ont ensuite été préparés et exportés dans plusieurs formats à l’aide d’Illustrator.

Le créateur lié à l’IA a ensuite utilisé MidJourney pour générer un arrière-plan de jeu approprié, en lui demandant simplement de répondre à une question du type : Asset de jeu, forêt, élément de forêt.

C’est alors qu’intervient la magie de ChatGPT. Chevallier explique qu’il a donné au chatbot et à l’assistance virtuelle « toutes les instructions détaillées de ce que je veux et des médias que j’ai déjà préparés ».

En quelques minutes, une page HTML vous est renvoyée, ce qui aurait dû donner lieu à un petit jeu HMTL5 Canvas.

Lire plus
Intelligence Artificielle

Voici tous les appareils qui prendront en charge l’Apple Intelligence

Voici tous les appareils qui prendront en charge l'Apple Intelligence

Il s’agissait d’une semaine importante pour Apple ! Conformément aux rumeurs, les dernières annonces logicielles — iOS 18, iPadOS 18 et macOS Sequoia — ont été agrémentées de fonctions d’intelligence artificielle pour compléter les friandises qu’Apple a l’habitude de proposer.

Cette suite de fonctionnalités d’IA a été baptisée Apple Intelligence et apporte la mise à niveau contextuelle de Siri que nous avons toujours voulue, des outils d’écriture IA à l’échelle de l’OS, Genmoji, un terrain de jeu d’images IA, et bien d’autres choses encore.

Tout cela semble charmant, mais ces nouvelles fonctionnalités d’IA ne seront limitées qu’à certains appareils Apple. Si vous souhaitez savoir si votre iPhone, iPad ou Mac sera compatible avec Apple Intelligence, consultez la liste des appareils ci-dessous.

Liste de compatibilité de l’Apple Intelligence

Apple Intelligence utilise le traitement sur l’appareil pour répondre à vos questions et préserver votre vie privée lorsque vous utilisez les fonctions d’IA sur l’iPhone, l’iPad et le Mac. « Les modèles génératifs profondément intégrés nécessitent une immense puissance de traitement », a déclaré Craig Federighi sur scène lors de l’événement. Il a ensuite ajouté que le Apple Silicon, y compris l’A17 Pro et les puces de la série M, dispose de la puissance de calcul nécessaire pour faire de cette fonctionnalité une réalité.

Par conséquent, tous les appareils Apple équipés de la puce Apple Silicon susmentionnée bénéficieront des nouvelles fonctionnalités de l’IA. Voici la liste complète des appareils qui prendront en charge les fonctionnalités d’Apple Intelligence :

  • iPhone 15 Pro
  • iPhone 15 Pro Max
  • iPad Air (M1 et versions ultérieures, à partir du modèle 2022)
  • iPad Pro (M1 et versions ultérieures, à partir du modèle 2021)
  • MacBook Air (M1 et versions ultérieures)
  • MacBook Pro (M1 et versions ultérieures)
  • iMac (M1 et versions ultérieures)
  • Mac mini (M1 et versions ultérieures)
  • Mac Studio (M1 Max et versions ultérieures)
  • Mac Pro (M2 Ultra)

Screen 2024 06 12 19.31.02 scaled

Les fonctionnalités d’Apple Intelligence sont-elles payantes ?

Apple Intelligence est gratuit pour les utilisateurs de tous les modèles d’iPhone, d’iPad et de Mac pris en charge. Pour pouvoir utiliser les fonctionnalités d’intelligence artificielle, vous devrez d’abord régler la langue de Siri et de l’appareil sur l’anglais américain. Les bêtas de macOS Sequoia, iPadOS 18 et iOS 18 permettront aux utilisateurs de tester les fonctionnalités d’intelligence artificielle dans le courant de l’année, avant le lancement officiel à l’automne.

Le géant de Cupertino étendra la disponibilité d’Apple Intelligence à « d’autres langues au cours de l’année prochaine », selon le communiqué officiel.

Apple fait preuve d’une grande retenue, comme l’a prouvé l’événement WWDC 2024 qui s’est tenu cette semaine. Bien que leur nouvelle suite Apple Intelligence soit un jeu de mots astucieux sur le mot à la mode aujourd’hui, l’IA, Craig Federighi ne l’a probablement utilisé qu’une seule fois au cours de l’événement. Apple sait que vous allez l’appeler AI après tout, alors il vaut mieux l’appeler « Apple Intelligence » au lieu d’« Artificial Intelligence » pour qu’elle ait l’air plus personnelle et liée à sa marque.

Êtes-vous impatient d’essayer les fonctions d’IA d’Apple sur vos appareils ?

Lire plus
Intelligence Artificielle

Microsoft ferme GPT Builder de Copilot après seulement 5 mois

Microsoft ferme GPT Builder de Copilot après seulement 5 mois

Microsoft Copilot est basé sur le même modèle de langage GPT que ChatGPT, et dispose donc d’un grand nombre de fonctionnalités identiques. Cela inclut GPT Builder, un moyen pour les gens de créer des chatbots personnalisés qui se comportent d’une manière spécifique ou qui ont accès à certaines données. Cependant, Microsoft ferme aujourd’hui sa version de GPT Builder, quelques mois seulement après son lancement.

Microsoft a annoncé l’arrêt de la fonction GPT Builder de Copilot, qui permettait aux utilisateurs de créer leurs propres chatbots sur mesure pour différents cas d’utilisation. Elle était analogue à la fonction GPT Builder de ChatGPT, qui est toujours disponible pour les abonnés de ChatGPT Plus. Vous ne pourrez plus créer de nouveaux GPT à partir du 10 juillet, et tous les chatbots créés par les utilisateurs seront supprimés le 14 juillet.

Microsoft se débarrasse de GPT Builder aussi rapidement que possible, tout en donnant aux utilisateurs le temps de prendre d’autres dispositions s’ils ont besoin de continuer à utiliser ces GPT, par exemple en les transférant vers ChatGPT. Cependant, GPT Builder nécessite un abonnement payant à ChatGPT Plus, et la version de Microsoft nécessitait un abonnement à Copilot Pro. Si vous avez vraiment besoin de GPT Builder, et aussi de Copilot Pro, vous avez maintenant besoin de deux abonnements.

Toutes les données associées aux GPT seront également rapidement supprimées des serveurs de Microsoft. Pour justifier cette décision, Microsoft se contente de dire ce qui suit :

Nous continuons à évaluer notre stratégie d’extensibilité de Copilot pour le grand public et nous donnons la priorité aux expériences de produits de base, tout en restant engagés dans les opportunités pour les développeurs. À cette fin, nous déplaçons notre attention sur les GPT vers les scénarios commerciaux et d’entreprise et nous arrêtons les efforts GPT dans le Copilot grand public.

Version la fin des GPT Builder ?

Les GPT seront toujours disponibles pour les utilisateurs professionnels, mais Microsoft y renonce complètement pour les consommateurs. En ce qui concerne les raisons de cette décision, nous n’en savons absolument rien, hormis la déclaration ci-dessus.

Étant donné que cette fonctionnalité n’a duré que 5 mois, on peut prendre le risque de dire qu’elle n’a probablement pas été utilisée par un grand nombre de personnes. Ceux qui utilisent GPT Builder le font probablement par l’intermédiaire de ChatGPT plutôt que de Copilot. OpenAI dispose d’une vitrine où vous pouvez obtenir des GPT créés par d’autres utilisateurs, de sorte que vous n’avez pas nécessairement besoin d’en créer un à moins que vous n’ayez un cas d’utilisation très spécialisé.

Cela m’amène également à m’interroger sur le sort du GPT Builder analogue et du GPT Store personnalisé d’OpenAI, qui ont respectivement été lancés en grande pompe en novembre 2023 et en janvier 2024, mais qu’OpenAI n’a pas passé beaucoup de temps à mettre à jour ou à mentionner depuis lors. Sont-ils également en fin de vie ?

OpenAI a décidé de permettre aux utilisateurs gratuits de ChatGPT et de GPT-4o d’accéder à des GPT personnalisés créés par des tiers à la suite de son événement Spring Updates en mai, ce qui montre que l’entreprise considère toujours que les GPT personnalisés ont de la valeur pour un large public.

 

Lire plus
Intelligence Artificielle

Gemini Nano arrive sur les Pixel 8 et 8a : L’IA de Google sans Internet

screenshot

Les fonctionnalités d’intelligence artificielle (IA) sont devenues un sujet brûlant sur les smartphones haut de gamme, et Apple vient de donner un aperçu de tout ce qu’ils ajoutent aux iPhone avec Apple Intelligence.

Google a une longueur d’avance sur Apple en intégrant ces fonctionnalités d’intelligence artificielle aux mains des consommateurs, grâce au support de Gemini Nano sur le Pixel 8 Pro. Gemini Nano apporte des fonctionnalités d’IA intégrées qui fonctionnent sans connexion Internet.

Avec la dernière Pixel Feature Drop de juin 2024 qui se déploie aujourd’hui, Google apporte Gemini Nano au Pixel 8 et au Pixel 8a.

Qu’est-ce que Gemini Nano ?

Gemini Nano est le modèle d’IA le plus efficace de Google, conçu spécifiquement pour les tâches sur appareil. Initialement, Google avait promis que Gemini Nano ne serait disponible que sur le Pixel 8 Pro. Cette promesse a suscité une telle réaction que Google a fait marche arrière et a accepté de rendre Gemini Nano disponible sur le Pixel 8.

La société est même allée plus loin en incluant également le Pixel 8a dans l’offre.

Comment activer Gemini Nano sur votre Pixel 8 et Pixel 8a ?

Gemini Nano arrive sur votre Pixel 8 et Pixel 8a avec le Pixel Feature Drop de juin 2024, mais vous aurez également besoin de la dernière mise à jour de l’application AICore pour ces appareils (qui devrait se mettre à jour automatiquement sur votre téléphone).

Une fois votre système et votre application mis à jour, vous pouvez activer Gemini Nano sur votre Pixel 8 et Pixel 8a en suivant ces étapes :

  1. Activer les options développeur : Allez dans Paramètres > À propos du téléphone et appuyez sept fois sur le numéro de build jusqu’à ce que vous voyiez l’alerte « Vous êtes maintenant développeur ».
  2. Accédez aux options développeur : Allez dans Paramètres > Système > Options développeur.
  3. Activez les fonctionnalités AICore : Trouvez le réglage AICore dans la liste et activez toutes les fonctionnalités AICore.

Gemini Nano est également activé par défaut sur le Pixel 8 Pro. Il reste à voir si cette nouvelle Pixel Feature Drop apporte la possibilité de désactiver les fonctionnalités sur appareil pour ceux qui le souhaitent.

Quelles fonctionnalités Gemini Nano active-t-elle sur le Pixel 8 et le Pixel 8a ?

Google n’a pas encore partagé la liste des fonctionnalités activées par Gemini Nano sur le Pixel 8 et le Pixel 8a. Cependant, nous avons une idée assez précise de ce qu’il pourrait activer, car Gemini Nano alimente un certain nombre de ces fonctionnalités sur le Pixel 8 Pro :

  • Résumé des enregistrements : L’application Enregistreur vous permet de créer des transcriptions d’enregistrements et d’utiliser l’IA sur appareil via Gemini Nano pour créer des résumés de transcriptions.
  • Réponse intelligente de Gboard : Gboard scanne les discussions récentes sur les applications WhatsApp, Line, et KakaoTalk et utilise l’IA sur appareil pour fournir une réponse suggérée adaptée à la conversation. Cette fonctionnalité utilise Gemini Nano, elle fonctionnera donc plus rapidement et mieux que la fonctionnalité de réponse intelligente non-IA de Gboard qui repose sur des suggestions basées sur le cloud.
  • Google Messages Magic Compose: Dans l’application Messages, Magic Compose suggère des réponses aux messages en fonction du contexte de votre conversation. En plus des suggestions, Magic Compose peut également réécrire des messages pour vous. La plupart des téléphones ont Magic Compose dans Google Messages, mais les appareils Pixel avec Gemini Nano peuvent utiliser le traitement IA sur appareil pour des suggestions plus rapides et sans Internet.
Lire plus