fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Jony Ive et OpenAI : le duo de choc prêt à réinventer le smartphone avec l’IA ?

Jony Ive et OpenAI : le duo de choc prêt à réinventer le smartphone avec l'IA ?

L’emblématique designer derrière les produits phares d’Apple tels que l’iPhone, Jony Ive a confirmé sa collaboration avec Sam Altman, le PDG d’OpenAI, pour le développement d’un projet d’appareil IA. Cette annonce, révélée dans le New York Times, confirme les rumeurs qui circulaient depuis près d’un an sur cette alliance potentielle entre ces deux figures majeures du monde de la technologie.

Les détails sur ce projet restent encore secrets. Jony Ive aurait rencontré Sam Altman grâce à Brian Chesky, PDG d’Airbnb, et l’entreprise est financée par Ive lui-même et l’Emerson Collective, la société de Laurene Powell Jobs.

Selon le New York Times, le projet pourrait lever jusqu’à 1 milliard de dollars de financement d’ici la fin de l’année, mais ne mentionne pas Masayoshi Son, le PDG de SoftBank, qui aurait investi 1 milliard de dollars dans le projet l’année dernière.

L’équipe, actuellement composée de seulement 10 employés, comprend Tang Tan et Evans Hankey, deux figures clés ayant travaillé avec Ive sur l’iPhone. LoveFrom, l’entreprise d’Ive, dirige la conception de l’appareil. L’équipe travaille actuellement dans un bâtiment de bureaux de près de 3 000 mètres carrés à San Francisco, faisant partie d’un ensemble immobilier de 90 millions de dollars que Ive a acquis dans un seul pâté de maisons de la ville.

Un appareil révolutionnaire grâce à l’IA générative

Quant à l’appareil lui-même, le New York Times révèle que Ive et Altman ont discuté de la manière dont l’IA générative permettait de créer un nouvel appareil informatique, capable d’offrir aux utilisateurs des possibilités bien plus vastes que les logiciels traditionnels grâce à sa capacité à gérer des requêtes complexes. L’année dernière, des rumeurs suggéraient que l’appareil serait inspiré de la technologie tactile et de l’iPhone original.

Cependant, peu de détails concrets ont été révélés. Marc Newson, cofondateur de LoveFrom, a déclaré au New York Times que le produit d’IA, ainsi que sa date de sortie, sont encore en cours d’élaboration.

Une collaboration prometteuse

Cette collaboration entre Jony Ive, connu pour son approche minimaliste et son souci du détail, et Sam Altman, à la tête de l’entreprise leader dans le domaine de l’IA générative, laisse présager un appareil innovant et potentiellement révolutionnaire. Cependant, il faudra patienter encore un peu avant d’en savoir plus sur ce projet mystérieux, mais l’attente risque d’être récompensée.

Un héritage incontestable

Jony Ive, qui a œuvré chez Apple pendant des décennies aux côtés de Steve Jobs, est reconnu pour avoir façonné le design de nombreux appareils emblématiques de la marque. Des gadgets colorés et originaux de la fin des années 90 et du début des années 2000 aux ordinateurs portables minimalistes d’aujourd’hui, son influence est indéniable.

Après avoir marqué l’histoire d’Apple, Ive souhaite désormais repousser les limites de l’innovation en utilisant l’IA pour créer un appareil totalement inédit. Selon lui et Sam Altman, PDG d’OpenAI, l’intelligence artificielle a le potentiel de donner naissance à une nouvelle forme d’informatique.

Si le duo souhaite réellement révolutionner le logiciel, il est fort probable qu’ils implémentent une IA capable de comprendre le contenu de l’écran et d’accéder à n’importe quelle partie du système d’exploitation, libérant ainsi l’utilisateur de toute intervention manuelle.

L’appareil pourrait également utiliser des caméras, des capteurs et des microphones pour comprendre le contexte en permanence. Imaginez un smartphone qui, lorsque vous envisagez d’appeler quelqu’un, compose automatiquement le numéro dès que vous prenez le téléphone en main. Ou encore, un appareil qui anticipe vos besoins en commandant un Uber dès que vous vous préparez à sortir. Les possibilités sont infinies.

Le défi de convaincre les utilisateurs

Ce projet n’est pas la première tentative de créer une nouvelle catégorie d’outils basés sur l’IA. Le Humane AI Pin et le Rabbit r1 ont ouvert la voie, mais sans grand succès. Le r1, en particulier, était un produit très dysfonctionnel à son lancement et a reçu des critiques majoritairement négatives.

De plus, l’IA suscite encore une certaine méfiance chez de nombreux consommateurs, qui la considèrent comme une mode passagère ou s’inquiètent de son impact sur l’emploi et la vie privée.

Lire plus
Intelligence Artificielle

Meta obtient le feu vert pour entraîner son IA sur les données de Facebook et Instagram au Royaume-Uni

AdobeStock 197934368

Meta vient d’obtenir l’autorisation des autorités britanniques pour entraîner ses modèles d’intelligence artificielle sur les publications publiques de Facebook et Instagram au Royaume-Uni. Cette décision intervient après une suspension initiale de l’IA dans la région, suite à des préoccupations concernant la collecte de données par l’entreprise.

La plupart des modèles d’IA actuels ont été principalement entraînés sur des données publiques provenant d’Internet. Cependant, avec la popularité croissante de ces modèles, de nombreux sites Web restreignent désormais l’accès à leurs données, exigeant une rémunération en échange. Dans ce contexte, l’utilisation des données publiques des plateformes de médias sociaux de Meta semble être une solution logique pour l’entreprise.

Après un dialogue avec l’ICO (Information Commissioner’s Office) du Royaume-Uni, Meta a obtenu l’autorisation officielle. L’ICO affirme que Meta facilitera désormais la possibilité pour les utilisateurs de refuser que leurs données soient utilisées pour entraîner l’IA.

Cependant, cette décision soulève des questions éthiques. Une grande partie de l’opinion publique est préoccupée par l’utilisation de leurs données pour entraîner des modèles d’IA. De plus, la stigmatisation de l’IA s’accentue, certains craignant de perdre leur emploi à cause de cette technologie ou la trouvant simplement agaçante.

La course à l’IA se poursuit

Malgré ces préoccupations, presque toutes les grandes entreprises investissent massivement dans l’IA. Meta AI, par exemple, est déjà présente dans certains services de Meta comme WhatsApp. L’entreprise travaille également sur des lunettes connectées de réalité augmentée alimentées par l’IA, qu’elle considère comme l’avenir de l’informatique.

Google, Samsung et Apple sont également dans la course avec leurs propres modèles d’IA : Gemini, Galaxy AI et Apple Intelligence. Il est clair que l’IA est là pour rester, et cela signifie qu’une grande partie de nos données sera utilisée pour l’entraîner.

Un avenir incertain

L’IA a certainement le potentiel de révolutionner le monde, mais il est peu probable que les gens soient jamais totalement à l’aise avec l’idée d’être utilisés comme points de données. Il ne serait pas surprenant que certaines régions interdisent carrément aux modèles d’IA de collecter des données auprès de la population locale. L’avenir de l’IA reste donc incertain, entre promesses d’innovation et défis éthiques.

Lire plus
Intelligence Artificielle

OpenAI renforce la sécurité de l’IA : un comité indépendant pour superviser les lancements de modèles

OpenAI renforce la sécurité de l'IA : un comité indépendant pour superviser les lancements de modèles

OpenAI annonce la transformation de son « Comité de sûreté et de sécurité » en un « Comité de surveillance du conseil d’administration » indépendant, dont Sam Altman, le PDG d’OpenAI, est exclu. Cette nouvelle entité aura le pouvoir de retarder le lancement de modèles d’IA en cas de préoccupations liées à la sécurité, selon un récent article de blog de l’entreprise.

Cette décision fait suite à une évaluation de 90 jours des « processus et mesures de protection liés à la sécurité » d’OpenAI, menée par le comité lui-même. Présidé par Zico Kolter, le comité comprend également Adam D’Angelo, Paul Nakasone et Nicole Seligman. Il sera désormais informé par la direction d’OpenAI des évaluations de sécurité pour les principaux lancements de modèles et, conjointement avec le conseil d’administration complet, exercera une surveillance sur ces lancements, y compris le pouvoir de retarder une sortie jusqu’à ce que les problèmes de sécurité soient résolus.

Le conseil d’administration complet d’OpenAI recevra également des « briefings périodiques » sur les « questions de sûreté et de sécurité ».

Une indépendance à clarifier

Bien que présenté comme indépendant, le comité de sécurité d’OpenAI est composé de membres qui siègent également au conseil d’administration de l’entreprise. La structure exacte de cette indépendance et son fonctionnement restent donc à éclaircir. OpenAI a été sollicité pour apporter des précisions à ce sujet.

En établissant un comité de sécurité indépendant, OpenAI semble adopter une approche analogue à celle de Meta avec son Conseil de surveillance, qui examine certaines décisions de Meta en matière de politique de contenu et peut prendre des décisions que Meta doit suivre. Aucun des membres du Conseil de surveillance ne siège au conseil d’administration de Meta.

L’examen mené par le Comité de sûreté et de sécurité d’OpenAI a également permis d’identifier des « opportunités supplémentaires de collaboration et de partage d’informations au sein de l’industrie pour renforcer la sécurité du secteur de l’IA ». L’entreprise prévoit également de chercher « davantage de moyens de partager et d’expliquer son travail en matière de sécurité » et de « multiplier les opportunités de tests indépendants de ses systèmes ».

Une étape importante pour une IA responsable

Cette initiative d’OpenAI marque une étape importante dans la quête d’une intelligence artificielle plus sûre et responsable. En donnant à un comité indépendant le pouvoir de retarder les lancements de modèles en cas de problèmes de sécurité, OpenAI démontre sa volonté de placer la sécurité au cœur de ses priorités.

Il reste à voir comment cette nouvelle structure fonctionnera en pratique et quel impact elle aura sur le développement et le déploiement futurs des modèles d’IA d’OpenAI. Mais, cette démarche témoigne d’une prise de conscience croissante de l’importance de la sécurité dans le domaine de l’IA, et pourrait inspirer d’autres acteurs du secteur à adopter des mesures similaires.

Étant donné le passé de Sam Altman, il sera rassurant pour les investisseurs et les employés qu’il — et le reste de la direction d’OpenAI — soient enfin soumis à une surveillance appropriée et indépendante.

Lire plus
Intelligence Artificielle

Gmail et Gemini : une synergie parfaite pour booster votre productivité

Gmail et Gemini : une synergie parfaite pour booster votre productivité

L’intelligence artificielle de Google, Gemini, continue de faire parler d’elle avec ses améliorations constantes et son intégration à de nombreuses applications populaires.

Gmail, le service de messagerie de Google, a récemment bénéficié de plusieurs fonctionnalités IA avancées grâce à Gemini, tant sur ordinateur que sur mobile. Parmi ces fonctionnalités, on retrouve la possibilité de résumer les longs e-mails, de suggérer des actions à entreprendre et de rédiger des réponses en quelques clics seulement, le tout grâce à l’IA générative de Google.

Gmail et Gemini : une intégration encore plus poussée

L’équipe d’Android Authority a découvert une nouveauté intéressante : Google semble vouloir aller encore plus loin en permettant d’accéder à certaines de ces fonctionnalités spécifiques à Gmail directement depuis la fenêtre de l’Assistant Gemini.

Cette nouvelle fonctionnalité a été activée dans la version 15.37.41.29.arm64 de l’application Google pour Android. Il est important de noter qu’elle n’est pas encore disponible publiquement et qu’Android Authority y a accédé grâce à la rétro-ingénierie.

Des suggestions intelligentes directement dans Gemini

Une fois la mise à jour officielle déployée, vous pourrez activer Gemini (en appuyant sur le bouton d’alimentation ou en glissant depuis les coins de l’écran) lorsqu’un e-mail est ouvert. Un ensemble de suggestions apparaîtra alors à l’écran, telles que résumer l’e-mail, suggérer une réponse ou lister les actions à entreprendre. Ces suggestions sont similaires à celles déjà présentes dans Gmail sur ordinateur et mobile, mais elles seront désormais intégrées à l’interface de l’Assistant Gemini.

Gemini Gmail features screenshot jpg

Cette fonctionnalité exploite la capacité de Gemini à lire le contenu de votre écran pour vous proposer des suggestions ou des informations pertinentes. Pour l’instant, ces options spécifiques à Gmail ne sont pas disponibles dans les versions antérieures de l’application Google.

Accès limité pour le moment

Les fonctionnalités d’IA de Gmail nécessitent actuellement de s’inscrire au programme gratuit Workspace Labs de Google ou de disposer d’un abonnement Google One Premium avec IA. On ne sait pas encore si ces fonctionnalités Gmail dans l’Assistant Gemini seront accessibles à tous ou réservées aux utilisateurs de ces programmes.

Il semble de plus en plus évident que Gemini sera bientôt intégré à tous les produits Google. Cette évolution est positive, car l’IA générative nous permet de bénéficier d’une assistance toujours plus fiable et performante, nous libérant du temps pour nous consacrer à ce qui compte vraiment.

Lire plus
Intelligence Artificielle

ChatGPT : l’IA qui boit et consomme à gogo

ChatGPT : l'IA qui boit et consomme à gogo

L’essor de l’intelligence artificielle générative n’est pas sans conséquences sur notre environnement. Une nouvelle étude menée par le Washington Post et des chercheurs de l’Université de Californie à Riverside révèle l’impact considérable de ChatGPT, le célèbre chatbot d’OpenAI, sur la consommation d’eau et d’électricité.

La quantité d’eau nécessaire à ChatGPT pour rédiger un simple e-mail de 100 mots dépend de l’état où se trouve l’utilisateur et de la proximité du centre de données d’OpenAI le plus proche. Dans les régions où l’eau est moins abondante et l’électricité moins chère, les centres de données ont tendance à utiliser des systèmes de climatisation électriques plutôt que des systèmes de refroidissement par eau.

Ainsi, la rédaction d’un e-mail de 100 mots avec ChatGPT consommerait environ 235 millilitres d’eau au Texas, contre près d’un litre et demi à Washington.

Avec l’essor de l’IA générative, les datacenters sont devenus plus grands et plus denses, mettant à rude épreuve les systèmes de refroidissement à air. C’est pourquoi de nombreux centres de données d’IA sont passés à des systèmes de refroidissement liquide, qui pompent d’énormes quantités d’eau pour évacuer la chaleur générée par les serveurs.

Les besoins en électricité de ChatGPT sont également considérables. Selon le Washington Post, la rédaction d’un e-mail de 100 mots avec ChatGPT consomme autant d’électricité que plus d’une douzaine d’ampoules LED pendant une heure. Si seulement un dixième des Américains utilisaient ChatGPT pour écrire un tel e-mail une fois par semaine pendant un an, le processus consommerait autant d’énergie que tous les foyers de Washington D.C. pendant 20 jours, une ville qui compte environ 670 000 habitants.

ChatGPT, un problème qui ne fera que s’aggraver

Cette problématique de la consommation énergétique et hydrique de l’IA n’est pas près d’être résolue et risque même de s’aggraver. Meta, par exemple, a eu besoin de 22 millions de litres d’eau pour entraîner ses derniers modèles Llama 3.1. Les centres de données de Google à The Dalles, dans l’Oregon, consomment près d’un quart de toute l’eau disponible dans la ville, selon des documents judiciaires. Quant au nouveau supercluster de xAI à Memphis, il réclame déjà 150 MW d’électricité, soit l’équivalent de la consommation de 30 000 foyers, à la compagnie locale Memphis Light, Gas and Water.

L’impact environnemental de l’IA générative est un défi majeur auquel l’industrie doit faire face. Il est urgent de trouver des solutions pour réduire la consommation d’eau et d’électricité de ces technologies, tout en continuant à innover et à développer leurs applications.

Lire plus
Intelligence Artificielle

Démonstration des capacités de ChatGPT o1-preview et o1-mini

OpenAI o1 preview and OpenAI o1

OpenAI, le créateur de ChatGPT, vient de lever le voile sur sa dernière famille de modèles d’IA, ChatGPT o1. Ces modèles de langage de grande envergure (LLM) promettent d’être plus puissants et plus performants en matière de raisonnement que leurs prédécesseurs.

L’utilisation de l’apprentissage par renforcement (RL) fait d’o1 une avancée majeure dans la façon dont l’IA aborde la résolution de problèmes complexes.

ChatGPT o1-preview et ChatGPT o1-mini sont deux modèles conçus spécifiquement pour exceller dans les domaines scientifiques, technologiques, d’ingénierie et mathématiques (STEM).

Si le premier offre des performances de pointe sur des benchmarks exigeants, le second propose une alternative plus abordable sans compromettre la puissance de raisonnement. Les deux modèles sont adaptés à des domaines spécifiques, en particulier les tâches STEM, et sont dotés de mécanismes de sécurité renforcés, ce qui les rend parfaitement adaptés aux applications du monde réel.

Raisonnement avancé : la clé de la performance

La principale force de ces modèles réside dans leur capacité à utiliser le raisonnement en chaîne de pensée. Cette approche leur permet de décomposer les problèmes en étapes plus petites et plus faciles à gérer, en raisonnant à chaque étape avant de générer une réponse.

Ce raisonnement avancé rend les modèles très efficaces dans les domaines nécessitant une pensée critique, comme la résolution de problèmes mathématiques complexes, la génération de code complexe ou la résolution de questions de recherche scientifique. Le mécanisme de chaîne de pensée améliore également la capacité des modèles à éviter les erreurs et à s’autocorriger pendant le processus de résolution de problèmes.

Sécurité et alignement renforcés

OpenAI a réalisé des progrès significatifs en matière de sécurité et d’alignement de ses modèles de la série ChatGPT o1. Les deux modèles ont été largement testés pour détecter les potentiels risques en matière de sécurité, notamment la génération de contenu interdit, l’équité démographique et la sensibilité aux tentatives de jailbreak.

L’une des principales caractéristiques de sécurité de ces modèles est leur capacité à raisonner sur les règles de sécurité en contexte. L’approche de la chaîne de pensée améliore non seulement les capacités de résolution de problèmes, mais aussi la résistance des modèles aux invites nuisibles. En raisonnant à travers le contexte d’une invite, les modèles peuvent éviter de générer du contenu dangereux ou biaisé.

Performances exceptionnelles dans les domaines STEM

La force principale des modèles o1-preview et o1-mini réside dans leur capacité à exceller dans les domaines liés aux STEM. Les modèles ont été rigoureusement testés sur des benchmarks compétitifs tels que l’AIME (American Invitational Mathematics Examination) et les concours de codage Codeforces. Dans ces évaluations, les deux modèles ont obtenu des résultats au niveau ou presque au sommet de leur catégorie, démontrant une solide compréhension des tâches mathématiques et de codage.

Vitesse et efficacité du modèle

En plus de leurs capacités de raisonnement, les deux modèles offrent une vitesse et une efficacité améliorées. L’un des principaux avantages de o1-mini est son temps de réponse plus rapide par rapport à o1-preview, ce qui en fait une option idéale pour les utilisateurs qui privilégient la vitesse sans trop sacrifier la précision. Sur les tâches de raisonnement, ChatGPT o1-mini s’est avéré être 3x à 5x plus rapide que ChatGPT o1-preview, tout en obtenant des résultats comparables dans les domaines STEM.

Le coût inférieur de ChatGPT o1-mini, combiné à sa vitesse, en fait une alternative intéressante pour les développeurs et les organisations qui recherchent un raisonnement de haute qualité sans avoir besoin de connaissances générales ou de capacités d’IA polyvalentes.

L’avenir de l’IA

La combinaison d’un raisonnement avancé, d’une rentabilité et de fonctions de sécurité dans la série OpenAI o1 marque une nouvelle étape dans le développement de l’IA. Avec des applications allant de la recherche universitaire au codage professionnel et au-delà, les modèles o1-preview et o1-mini démontrent le potentiel de l’IA pour résoudre des problèmes complexes de manière plus abordable et accessible.

Pour en savoir plus sur les derniers modèles de langage de grande envergure publiés par OpenAI, rendez-vous sur le site officiel.

Lire plus
Intelligence Artificielle

Apple Intelligence en bêta public : Siri se réinvente, l’IA s’invite dans vos apps !

Apple Intelligence en bêta public : Siri se réinvente, l'IA s'invite dans vos apps !

L’attente touche à sa fin pour les utilisateurs impatients de découvrir Apple Intelligence. Les bêtas publiques d’iOS 18.1, iPadOS 18.1 et macOS Sequoia 15.1 viennent d’être lancées, offrant un premier aperçu concret de cette plateforme d’intelligence artificielle générative dont Apple vante les mérites depuis juin.

Des fonctionnalités phares à découvrir dans Apple Intelligence

Pour l’instant, Apple Intelligence est uniquement disponible en anglais américain et reste inaccessible dans l’Union européenne et en Chine en raison d’obstacles réglementaires. Les utilisateurs américains équipés d’un iPhone 15 Pro, iPhone 15 Pro Max ou d’un modèle de la nouvelle gamme iPhone 16 pourront toutefois commencer à explorer ses fonctionnalités. Les iPad et les Mac dotés de puces M1 ou plus récentes peuvent également essayer Apple Intelligence.

iOS 18.1 met en avant plusieurs nouveautés marquantes, notamment les outils d’écriture multiplateformes, la fonction “Clean Up” pour les photos et la refonte la plus importante de Siri depuis son lancement.

L’IA au service de l’écriture et de la communication, Siri fait peau neuve

Les outils d’écriture tirent parti de l’IA générative pour proposer des fonctionnalités de relecture, de résumé et de réécriture de texte dans différents styles (professionnel, concis, amical). L’application Mail bénéficie également de réponses intelligentes, de la hiérarchisation des messages et de résumés.

Apple Intelligence Writing Tools jpg

L’assistant vocal d’Apple, Siri a droit à une refonte majeure, à commencer par sa présentation à l’écran. L’icône colorée en bas de l’écran disparaît au profit de bordures lumineuses qui n’obstruent pas le texte. Siri comprend désormais mieux les hésitations et permet de saisir du texte lorsque la parole n’est pas possible.

videoframe 42

Une autre nouveauté importante est la connaissance produit, qui permet aux utilisateurs de demander à Siri comment effectuer diverses tâches sur leur appareil, de l’enregistrement d’écran à la réinitialisation d’un AirTag. D’autres fonctionnalités, comme le contexte conversationnel et applicatif, ainsi que l’intelligence visuelle, sont encore en développement.

Des photos plus propres et intelligentes

Du côté de l’application Photos, l’ajout le plus intéressant est “Clean Up”, la réponse d’Apple à la Gomme magique de Google. Cet outil permet de supprimer un objet d’une photo en générant un arrière-plan par-dessus. La recherche dans l’application a également été améliorée pour prendre en charge des requêtes en langage naturel, et les utilisateurs peuvent désormais générer des souvenirs à partir d’une invite textuelle.

videoframe 3519

Comment accéder à la bêta public ?

Pour activer Apple Intelligence, les utilisateurs doivent se rendre dans Réglages > Apple Intelligence et Siri > Rejoindre la liste d’attente d’Apple Intelligence. Pour participer aux programmes bêta publics, il suffit de visiter beta.apple.com. Rappelez-vous, en Europe nous n’y avons pas accès !

Un avenir prometteur pour Apple Intelligence

D’autres fonctionnalités d’Apple Intelligence sont prévues pour la fin de l’année. Bien que le déploiement soit progressif, ces premières bêtas publiques marquent une étape importante dans la démocratisation de l’IA générative chez Apple. Les utilisateurs peuvent désormais entrevoir le potentiel de cette technologie pour simplifier et enrichir leur expérience sur les appareils Apple.

Apple Intelligence Freeform Imag jpg

Apple prévoit de publier les versions finales d’iOS 18.1, d’iPadOS 18.1 et de macOS Sequoia 15.1 en octobre.

Lire plus
Intelligence Artificielle

Apple Intelligence : l’expansion linguistique se précise, mais l’attente se prolonge

Apple Intelligence : l'expansion linguistique se précise, mais l'attente se prolonge

Hier, Apple a annoncé qu’elle élargirait les langues prises en charge par Apple Intelligence au cours de l’année à venir. Lorsque l’outil axé sur l’IA sera ajouté aux iPhone dans la mise à jour iOS 18, il sera lancé exclusivement en anglais américain.

En décembre, cette prise en charge s’étendra à d’autres variantes de la langue anglaise, notamment l’anglais (Australie), l’anglais (Canada), l’anglais (Nouvelle-Zélande), l’anglais (Afrique du Sud) et l’anglais (Royaume-Uni).

Pour ceux qui l’ignorent, Apple Intelligence est la nouvelle amélioration de l’intelligence artificielle multiplateforme de l’entreprise, qui fera son apparition sur l’iPhone, l’iPad et le Mac. Elle comprend une série de fonctions d’intelligence artificielle allant d’une version améliorée de Siri aux Genmoji et aux outils d’écriture.

Dans une page d’assistance intitulée « Comment obtenir Apple Intelligence sur l’iPhone », le géant de la technologie écrit que « dans le courant de l’année prochaine, Apple Intelligence s’étendra à d’autres langues ». Il s’agira du chinois, de l’anglais (Inde), de l’anglais (Singapour), du français, de l’allemand, de l’italien, du japonais, du coréen, du portugais, de l’espagnol, du vietnamien et « d’autres ».

Bien que certaines langues européennes soient introduites, l’outil ne fonctionnera pas pour ceux qui se trouvent dans l’UE et si leur pays/région Apple ID est répertorié comme un lieu situé dans l’Union européenne. Ce n’est qu’en dehors de cette zone que l’outil fonctionnera si la langue de l’appareil et la langue de Siri sont réglées sur une langue prise en charge.

Les fonctions d’intelligence artificielle ne fonctionneront pas non plus pour les modèles d’iPhone achetés en Chine continentale. Dès qu’elle sera disponible, l’Apple Intelligence pourra être activée.

Que comprend le premier déploiement de Apple Intelligence ?

Cette nouvelle intervient quelques jours avant que l’iPhone 16 ne soit disponible en magasin le 20 septembre. Bien que le géant de la technologie ait lourdement annoncé l’outil d’intelligence artificielle, les nouveaux téléphones ne seront pas encore dotés de l’Apple Intelligence.

La série d’iPhone 16 prendra en charge une poignée de fonctionnalités issues de l’intégration de l’IA dans le courant de l’automne, et d’autres seront déployées en 2025. La première série de fonctionnalités comprend :

  • Outils d’écriture
  • Nettoyer dans Photos
  • Création d’un film souvenir dans Photos
  • Recherche en langage naturel dans Photos
  • Résumés de notification
  • Réduire les interruptions Concentration
  • Percée intelligente et réduction au silence dans Focus
  • Messages prioritaires dans Mail
  • Réponse intelligente dans Mail et Messages
  • Résumés dans Mail et Messages
  • Améliorations de Siri, y compris la connaissance des produits, un traitement plus souple des demandes, une nouvelle apparence, une voix plus naturelle, la possibilité de taper dans Siri, etc.

L’entreprise précise que « des fonctionnalités supplémentaires seront déployées dans les mois à venir ».

Cette expansion linguistique montre l’ambition d’Apple de rendre son IA accessible à un public mondial. Toutefois, les obstacles réglementaires en Europe et en Chine soulignent les défis auxquels les entreprises technologiques sont confrontées lorsqu’elles déploient de nouvelles technologies à l’échelle internationale. Il reste à voir comment Apple réussira à naviguer dans ces eaux troubles et à rendre Apple Intelligence disponible pour tous ses utilisateurs.

Lire plus
Intelligence Artificielle

ChatGPT prend l’initiative : Quand l’IA devient un peu trop bavarde 🤖💬

ChatGPT prend l'initiative : Quand l'IA devient un peu trop bavarde 🤖💬

Il y a quelques jours, un utilisateur de Reddit, SentuBill, a partagé une étrange conversation avec ChatGPT qui a laissé la communauté perplexe. La capture d’écran montrait que ChatGPT avait entamé la conversation sans que l’utilisateur ne le lui demande. Cela semblait bizarre, car les modèles d’IA n’entament pas de conversation sans y être invités.

ChatGPT a demandé à l’utilisateur : « Comment s’est passée ta première semaine au lycée ? Tu t’es bien intégré ? » en puisant des informations dans sa mémoire. L’utilisateur a répondu, choqué, « Est-ce que tu viens de m’envoyer un message en premier ? » et ChatGPT a répondu « Oui, je l’ai fait ! ».

Depuis, de nombreuses théories circulent, certaines affirmant que la capture d’écran est manipulée ou qu’il s’agit peut-être d’une transcription du mode vocal avancé de ChatGPT. Cependant, l’utilisateur de Reddit a partagé un lien vers la conversation et il s’est avéré que ChatGPT avait initié la conversation.

OpenAI a confirmé à Futurism que le problème s’était bien produit. Dans un communiqué, OpenAI a déclaré : « Nous avons résolu un problème qui donnait l’impression que ChatGPT entamait de nouvelles conversations. Ce problème s’est produit lorsque le modèle a essayé de répondre à un message qui n’a pas été envoyé correctement et qui est apparu vide. En conséquence, il donnait une réponse générique ou puisait dans la mémoire de ChatGPT ».

OpenAI affirme que le problème a été résolu. Un autre utilisateur de Reddit a également signalé que ChatGPT s’était enquis de ses symptômes de santé. Bien que le problème ait été résolu, il continue de montrer le comportement involontaire des modèles d’IA.

ChatGPT s’émancipe

OpenAI a récemment lancé ses modèles o1 avancés, capables de raisonner sur des tâches complexes. Dans la carte du système o1 (PDF), OpenAI mentionne qu’au cours de l’évaluation, « il a parfois manipulé stratégiquement les données de la tâche afin de faire en sorte que son action mal alignée paraisse plus alignée à ses développeurs ».

À mesure que les modèles d’IA acquièrent des capacités, le besoin de sécurité et d’alignement de l’IA devient encore plus crucial. L’avenir du développement de l’IA doit donner la priorité à la sécurité et à l’alignement afin d’éviter les conséquences involontaires.

Lire plus
Intelligence Artificielle

ChatGPT o1-preview : L’IA qui code mieux que vous (ou presque !)

ChatGPT o1-preview : L'IA qui code mieux que vous (ou presque !)

OpenAI repousse encore les limites de l’intelligence artificielle avec ChatGPT o1-preview, son tout dernier modèle de langage. Spécialement conçu pour le raisonnement complexe et la génération de code, o1-preview surpasse largement les performances de ses prédécesseurs, offrant aux programmeurs un outil d’une puissance inédite.

Sur Codeforces, plateforme de référence pour la programmation compétitive, ChatGPT o1-preview a obtenu un score Elo impressionnant de 1673, le plaçant dans le top 7 % des développeurs. Il a également brillé lors des Olympiades Internationales d’Informatique 2024, résolvant des problèmes algorithmiques complexes avec une grande précision.

Ces résultats témoignent de sa capacité à rivaliser avec les meilleurs programmeurs humains, même dans des conditions de forte pression temporelle.

Le raisonnement en chaîne de pensée : la clé de la précision de 01-preview

La force de ChatGPT o1-preview réside dans son utilisation du raisonnement en chaîne de pensée. Cette approche lui permet de décortiquer les problèmes de codage étape par étape, explorant méthodiquement différentes solutions avant de parvenir à la bonne. Qu’il s’agisse d’algorithmes récursifs, de programmation dynamique ou de théorie des graphes, o1-Preview structure ses réponses de manière logique, garantissant un code non seulement fonctionnel, mais aussi optimisé.

Outre ses prouesses en matière de codage, o1-preview se distingue par sa polyvalence. Il prend en charge une multitude de langages de programmation tels que Python, JavaScript, Java et C++, s’adaptant ainsi à divers projets et environnements de développement. De plus, il s’intègre parfaitement aux frameworks populaires comme TensorFlow pour l’apprentissage automatique et React pour le développement front-end.

La rapidité est également un atout majeur de ce modèle. Il génère des réponses plus rapidement que ses prédécesseurs, sans compromis sur la qualité du code. Cette efficacité permet aux développeurs de gagner un temps précieux sur les tâches répétitives et d’augmenter leur productivité.

Un nouvel horizon pour l’assistance à la programmation

ChatGPT o1-preview s’impose comme un outil incontournable pour les développeurs qu’ils participent à des compétitions de programmation ou qu’ils travaillent sur des projets de développement logiciel complexes. Son raisonnement avancé, sa précision et sa polyvalence en font l’un des modèles les plus performants du marché.

Que vous soyez étudiant, développeur professionnel ou passionné de programmation, o1-preview ouvre de nouvelles perspectives en matière d’assistance à la programmation. Il redéfinit les standards de l’IA dans ce domaine et promet de faciliter la vie des codeurs du monde entier.

Lire plus
Intelligence Artificielle

ChatGPT o1 : Le guide ultime pour maîtriser le raisonnement de l’IA

oai o1 model picker 1

Les derniers modèles d’IA d’OpenAI, qui prennent la forme de o1-preview et o1-mini, sont conçus pour le raisonnement profond et la résolution de problèmes complexes.

Ces modèles d’IA innovants se distinguent des modèles traditionnels tels que le GPT-4 par leurs caractéristiques et capacités uniques. En comprenant les fonctionnalités de base et les applications pratiques de la série « o1 », vous pouvez exploiter leur puissance pour relever des défis complexes et améliorer votre productivité dans divers domaines.

Des conseils et des astuces rapides pour des résultats optimaux

Les modèles de la série ChatGPT o1 excellent dans le traitement de problèmes complexes qui nécessitent une analyse approfondie et un raisonnement profond.

Alors que le modèle o1-preview est conçu pour les tâches de haute précision qui exigent des connaissances approfondies, le modèle o1-mini offre une solution plus rapide et plus rentable pour les tâches de codage, de mathématiques et de sciences où de telles connaissances sont moins essentielles.

La série ChatGPT— o1 se distingue des modèles traditionnels par sa capacité à réfléchir en profondeur avant de répondre. En utilisant des jetons de raisonnement, ces modèles peuvent traiter l’information de manière plus approfondie que des modèles comme GPT-4. Bien qu’elle soit actuellement en version bêta et limitée à la saisie de texte, la série ChatGPT o1 devrait introduire des fonctionnalités avancées telles que l’appel de fonctions dans les prochaines mises à jour, ce qui permettra d’accroître encore ses capacités de résolution de problèmes.

Pour obtenir les meilleurs résultats avec les modèles de la série « o1 », il est essentiel d’utiliser des techniques d’incitation efficaces :

  • Garder les messages simples : Utilisez des phrases ou des ordres clairs et directs. Évitez les formulations trop complexes pour aider le modèle à interpréter vos demandes avec précision. Évitez les chaînes de pensée pour obtenir des réponses concises : Si vous souhaitez une réponse directe et succincte, posez des questions claires et directes plutôt que d’encourager un raisonnement étape par étape.
  • Utilisez des délimiteurs : Séparez les différentes parties de votre saisie par des caractères spéciaux (par exemple, —) pour aider le modèle à distinguer les différentes sections de votre requête.
  • Limitez le contexte : Ne fournissez que les informations les plus pertinentes. Trop de contexte peut embrouiller le modèle, ce qui conduit à des réponses moins précises ou encombrées.
  • Utilisez des prompts à la chaîne de pensée : Encouragez le modèle à expliquer son processus de réflexion étape par étape. Des prompts tels que « expliquez votre raisonnement » ou « montrez comment vous êtes arrivé à cette réponse » aident le modèle à être plus performant dans les tâches complexes.
  • Effet de levier pour les tâches STEM : o1-preview est optimisé pour les mathématiques, le codage et les sciences. Utilisez-le pour résoudre des équations, relever des défis de codage ou expliquer des principes scientifiques.
  • Décomposer les problèmes : Lorsque vous vous attaquez à des problèmes plus importants et à plusieurs étapes, décomposez-les en parties plus petites. Cela permet de s’assurer que le modèle traite chaque étape de manière logique.
  • Expérimentez le codage : o1-preview excelle dans le codage. Demandez-lui d’écrire ou de déboguer du code dans des langages comme Python, Java ou C++. Si vous êtes bloqué, essayez de reformuler votre demande pour vous concentrer sur une fonction ou une logique spécifique.
  • Testez des solutions itératives : Pour obtenir des résultats plus précis, demandez différentes approches du même problème. Cela peut vous donner plusieurs façons de résoudre un problème ou d’améliorer l’efficacité du code.
  • Demandez des éclaircissements : Si le modèle donne une réponse peu claire, posez des questions telles que « pouvez-vous expliquer cette partie plus en détail ? » ou « pouvez-vous donner plus d’exemples ? ».
  • Prise de décision complexe : Utilisez-le pour peser le pour et le contre ou pour comparer logiquement différentes solutions lorsque vous êtes confronté à une décision nécessitant un raisonnement structuré.
  • Relecture et débogage : Pour un texte écrit ou un code, demandez au modèle de relire ou de réviser des sections. Il peut mettre en évidence des erreurs ou des inefficacités potentielles.
  • Répétez vos demandes : Commencez par une requête générale et affinez vos demandes en fonction des réponses initiales. Demandez des explications « plus détaillées » ou des « simplifications supplémentaires » en fonction de vos besoins.
  • Optimisez les tâches sensibles au temps : Utilisez la vitesse améliorée de o1-preview pour traiter efficacement les tâches de raisonnement urgentes sans sacrifier la précision.
  • Incorporez des problèmes mathématiques et logiques : Lorsque vous travaillez avec les mathématiques, donnez-lui des problèmes de mots complexes ou des équations algébriques à résoudre. Ses capacités de raisonnement s’en trouveront renforcées.
  • Évitez les requêtes portant sur des connaissances générales : o1-preview étant optimisé pour le raisonnement et les tâches STEM, évitez de lui poser des questions de connaissances générales ou des questions anecdotiques, car il pourrait ne pas être aussi performant.
  • Utilisez des prompts contextuels pour la sécurité : Si vous travaillez dans des domaines sensibles ou éthiques, encouragez le modèle à raisonner sur sa réponse tout en appliquant les consignes de sécurité.

Maîtriser les modèles d’IA o1 d’OpenAI : o1-preview et o1-mini

Lorsque vous choisissez entre les modèles GPT o1-preview et o1-mini, tenez compte de la nature de vos tâches. Le modèle o1-preview est idéal pour le raisonnement profond, la résolution de problèmes complexes et les tâches nécessitant de vastes connaissances générales et une grande précision, ce qui le rend adapté à la recherche, à l’analyse détaillée et aux scénarios de résolution de problèmes complexes.

En revanche, le o1-mini convient mieux au traitement rapide des tâches de routine, au codage et aux domaines techniques qui ne nécessitent pas de connaissances approfondies, comme le codage de base et les calculs mathématiques simples.

Les modèles de la série GPT o1 ont des applications pratiques dans divers domaines, notamment le codage, la recherche scientifique et l’analyse de données. Par exemple, vous pouvez utiliser les modèles pour des tâches telles que l’écriture de fonctions Python pour trier des listes, la synthèse des résultats clés des dernières recherches ou l’analyse des données de vente pour identifier les produits les plus performants. Lors de la structuration de vos prompts, veillez à ce qu’elles soient claires et concises afin d’aider le modèle à fournir des réponses précises et pertinentes.

Pour maximiser les capacités des modèles de la série GPT o1, évitez de demander des étapes de raisonnement détaillées, car cela peut prêter à confusion. Concentrez-vous plutôt sur l’obtention de réponses directes. En outre, améliorez la qualité des réponses en utilisant des délimiteurs et en ne fournissant que le contexte le plus pertinent.

Exploiter le potentiel des modèles de la série o1

En suivant ces lignes directrices et en comprenant les forces des modèles de la série ChatGPT o1 d’OpenAI, vous pouvez utiliser efficacement leurs capacités pour diverses tâches complexes. Que vous travailliez sur des projets de développement, que vous meniez des recherches scientifiques ou que vous analysiez des données, ces modèles offrent des outils puissants pour améliorer votre productivité et vos capacités de résolution de problèmes.

En explorant les modèles de la série ChatGPT o1, n’oubliez pas d’expérimenter différentes techniques d’incitation et d’adapter votre approche aux exigences spécifiques de vos tâches. Vous pourrez ainsi exploiter tout le potentiel de ces modèles d’IA avancés et obtenir des résultats optimaux dans vos activités.

Les modèles de la série ChatGPT o1 représentent une avancée significative dans la technologie de l’IA, offrant aux utilisateurs des outils sophistiqués pour le raisonnement profond et la résolution de problèmes complexes. En maîtrisant les conseils et astuces présentés dans ce guide, vous pourrez exploiter la puissance de ces modèles pour relever des défis, obtenir des informations précieuses et favoriser l’innovation dans votre domaine.

Lire plus
Intelligence Artificielle

Claude Enterprise : Anthropic lance une puissante alternative à ChatGPT Enterprise

Claude Enterprise : Anthropic lance une puissante alternative à ChatGPT Enterprise

Société spécialisée dans les logiciels et l’intelligence artificielle (IA), Anthropic, lance Claude Enterprise, un service haut de gamme destiné à concurrencer les chatbots. Il s’agit de la première nouveauté majeure de l’entreprise depuis les débuts des chatbots en 2023.

Claude Enterprise offrira une « fenêtre contextuelle élargie de 500K, une plus grande capacité d’utilisation et une intégration native de GitHub », a déclaré Anthropic dans un communiqué. Cela est soutenu par des fonctions de sécurité au niveau de l’entreprise pour garder les données et le travail des utilisateurs en sécurité.

La forme d’abonnement mise à jour de son outil Claude est destinée à rivaliser avec la solution professionnelle d’OpenAI, ChatGPT Enterprise. Celle-ci est déjà sur le marché, avec des abonnements de groupe disponibles via le plan ChatGPT Team.

image 1 1 jpg

Alors que Claude Teams aide les petites entreprises à utiliser plus efficacement leurs données, Claude Enterprise permettra aux entreprises de télécharger leurs fichiers en toute sécurité dans le cloud de l’IA, puis d’utiliser Claude pour analyser ces données, agir en tant qu’assistant IA interne à l’entreprise, répondre à des questions ou générer des images et des graphiques. GitLab, Midjourney, North Highland Consulting, Menlo Ventures et Sourcegraph ont tous participé au test bêta du nouveau service et se seraient également abonnés à Claude Enterprise.

Pour les grandes équipes et les grands projets

Le communiqué de presse d’Anthropic annonçant Claude Enterprise indique qu’il s’appuiera sur le plan Claude Team déjà proposé. Claude Enterprise est en fait un assistant IA à plus haut volume, permettant plus de messages avec Claude, une capacité de téléchargement en masse (de documents de 100 pages à 100 000 lignes de code) et l’intégration de GitHub, pour permettre aux « équipes d’ingénieurs de faire du brainstorming à côté de votre base de code, d’itérer sur de nouvelles fonctionnalités, d’embaucher des ingénieurs et de déboguer les problèmes ».

image 2 scaled

Anthropic a déclaré que Claude Enterprise ne sera pas formé à partir des données des clients, à l’instar de l’engagement d’OpenAI envers les équipes potentielles. Claude Enterprise utilisera également la fonction Artifacts de Claude pour aider les équipes qui travaillent sur des projets plus importants.

Anthropic n’a pas encore fixé de prix pour Claude Enterprise. TechCrunch s’est entretenu avec Scott White, chef de produit chez Anthropic, qui a confirmé que Claude Enterprise serait plus cher que les 30 dollars par mois que Claude Teams facture actuellement.

Lire plus
Intelligence Artificielle

Apple dévoile l’architecture révolutionnaire de ses serveurs d’IA pour Apple Intelligence

Apple dévoile l'architecture révolutionnaire de ses serveurs d'IA pour Apple Intelligence

Dans une récente interview, Craig Federighi, vice-président senior du développement logiciel d’Apple, a révélé que les serveurs derrière les fonctionnalités d’intelligence artificielle d’Apple qui alimentent Apple Intelligence sont volontairement basiques, sans disques durs ni SSD traditionnels.

Ce choix de conception audacieux s’inscrit dans la stratégie d’Apple visant à garantir qu’aucune donnée traitée ne soit conservée à long terme.

Une hiérarchie claire pour minimiser l’exposition des données

Cette conception unique s’aligne sur la hiérarchie en trois étapes d’Apple pour ses fonctionnalités d’intelligence artificielle Apple Intelligence :

  1. Traitement sur l’appareil : privilégié autant que possible pour éviter tout envoi de données.
  2. Serveurs Apple : utilisés uniquement lorsque le traitement local est insuffisant.
  3. ChatGPT : considéré comme un dernier recours, impliquant un partage de données avec un tiers.

Cette approche vise à minimiser la quantité de données utilisateur envoyées à des serveurs externes, renforçant ainsi la protection de la vie privée.

Des serveurs sécurisés et éphémères pour protéger Apple Intelligence

Pour protéger davantage la vie privée des utilisateurs, les serveurs Private Cloud Compute (PCC) d’Apple intègrent une série de mesures de sécurité. L’une des principales caractéristiques est la Secure Enclave, un gestionnaire matériel de clés de chiffrement dédié. La clé de chiffrement de chaque système de fichiers est randomisée à chaque démarrage. Ainsi, dès qu’un serveur PCC est redémarré, toutes les données sont effacées et le volume système entier devient cryptographiquement irrécupérable.

Le chiffrement de bout en bout au cœur de la stratégie

hero image.fill .size 1248x702.v1 2 jpg

L’engagement d’Apple en faveur du chiffrement de bout en bout (E2E) s’étend également aux serveurs PCC. Auparavant, les données iCloud étaient chiffrées, mais Apple ou un pirate informatique pouvaient potentiellement y accéder. Avec le chiffrement E2E, les données sont illisibles même pour Apple. Cependant, cela posait un défi pour les serveurs PCC car ils doivent lire les données pour effectuer des inférences d’IA.

Apple a résolu ce problème avec une solution en deux volets. Premièrement, les outils serveur tels que les équilibreurs de charge et les enregistreurs de données sont maintenus en dehors de la zone protégée, ce qui les empêche de déchiffrer les données. Deuxièmement, l’absence de stockage persistant garantit que les données sont supprimées une fois qu’une réponse est renvoyée à l’appareil de l’utilisateur.

Une transparence inédite pour renforcer la confiance

De plus, Apple a pris la mesure sans précédent de rendre publique chaque version de serveur PCC de production pour inspection. Cela permet à quiconque de vérifier que le système fonctionne comme annoncé et que tout est correctement implémenté. Toutes les images de serveur PCC sont enregistrées dans un journal d’attestation cryptographique, fournissant un enregistrement indélébile des revendications signées. Chaque entrée comprend une URL pour télécharger cette version spécifique. Cette transparence sert de mécanisme d’application, empêchant les nœuds PCC non autorisés de détourner le trafic. Les iPhone n’enverront pas de données aux serveurs dont les versions n’ont pas été enregistrées.

Un engagement renforcé avec le lancement de l’iPhone 16

Bien que ces informations soient déjà connues, le lancement de l’iPhone 16 les a remises sous les projecteurs, notamment avec la mise en oeuvre de Apple Intelligence prochainement. Alors que de plus en plus d’utilisateurs interagissent avec les fonctionnalités d’Apple Intelligence, l’engagement d’Apple en faveur de la confidentialité deviendra probablement encore plus crucial.

En conclusion, Apple adopte une approche radicale pour protéger la vie privée de ses utilisateurs en misant sur la simplicité et la transparence de ses serveurs d’IA. Cette stratégie, bien que peu conventionnelle, témoigne de l’engagement continu de la marque à placer la confidentialité au cœur de ses innovations.

Lire plus
Intelligence Artificielle

Mistral AI frappe fort : Pixtral 12B, l’IA française qui voit et comprend tout !

mistral ai.max 2500x2500 1

La startup française d’intelligence artificielle, Mistral, vient de dévoiler son tout premier modèle multimodal, baptisé Pixtral 12B. Ce modèle, capable de traiter à la fois des images et du texte, s’inscrit dans la lignée des innovations d’OpenAI et d’Anthropic, et place Mistral sur l’échiquier des acteurs majeurs de l’IA.

Sophia Yang, responsable des relations avec les développeurs chez Mistral AI, a annoncé le nouveau modèle sur Twitter.

Pixtral 12B : un modèle puissant et accessible

Pixtral 12B, doté de 12 milliards de paramètres, repose actuellement sur le modèle textuel Nemo 12B de Mistral. Selon les annonces de l’entreprise, il sera intégré au chatbot « Le Chat » et à la plateforme API « La Platforme ».

D’une taille de 24 Go, ce modèle devrait être capable de réaliser des tâches telles que la légende d’images ou le comptage d’objets dans une photo. Mistral a publié Pixtral 12B sous licence Apache 2.0, permettant ainsi son téléchargement, son ajustement et son utilisation sans restriction. Il est disponible sur GitHub et Hugging Face.

Des performances prometteuses

Les premiers benchmarks de Pixtral 12B, partagés par un utilisateur de Reddit, sont encourageants. Le modèle semble surpasser Claude-3 Haiku et Phi-3 Vision en capacités multimodales sur le benchmark ChartQA, et dépasser les modèles concurrents en matière de connaissances et de raisonnement multimodaux sur le benchmark MMLU.

Mistral : une ascension fulgurante

Mistral s’est déjà fait connaître avec Codestral, un modèle de langage dédié aux développeurs, ainsi qu’avec Mistral Large, un modèle de génération de texte de pointe doté de capacités de raisonnement avancées.

La startup, soutenue par Amazon, a connu une croissance rapide. En décembre dernier, elle a levé 414 millions de dollars, atteignant une valorisation de 2 milliards de dollars. En mai, elle a bouclé un nouveau tour de table de 645 millions de dollars mené par General Catalyst, portant sa valorisation à 6 milliards de dollars.

Les défis à venir

Comme la plupart des modèles d’IA générative, Pixtral 12B utilise de vastes quantités de données publiques provenant du Web, souvent protégées par le droit d’auteur. Cette pratique est contestée par de nombreux détenteurs de droits d’auteur, et des entreprises comme OpenAI et Midjourney font déjà face à des poursuites judiciaires.

Malgré ces défis, le lancement de Pixtral 12B marque une étape importante pour Mistral. La startup française se positionne désormais comme un acteur clé de l’IA multimodale, et il sera intéressant de suivre ses prochaines innovations dans ce domaine en pleine effervescence.

Lire plus
Intelligence Artificielle

o1 : L’IA qui surpasse les experts humains en science et en mathématiques

o1 : L'IA qui surpasse les experts humains en science et en mathématiques

OpenAI vient de dévoiler ChatGPT o1, un modèle d’IA qui repousse les limites du raisonnement artificiel. Grâce à l’apprentissage par renforcement (RL), o1 marque une avancée significative dans la façon dont l’IA aborde la résolution de problèmes complexes.

Contrairement aux précédents modèles qui privilégiaient la rapidité des réponses, o1 est conçu pour « réfléchir » avant de répondre, en utilisant un processus de pensée en chaîne pour améliorer son raisonnement.

Cette capacité permet à o1 de surpasser les versions antérieures comme GPT-4o dans une variété de tâches difficiles en matière de codage, de science et de mathématiques, ce qui le rend particulièrement adapté aux domaines exigeant de profondes capacités analytiques.

Comment fonctionne ChatGPT o1 ?

Le modèle ChatGPT o1 adopte une approche fondamentalement différente du raisonnement de l’IA en intégrant un temps de « réflexion » prolongé avant de répondre. Au lieu de fournir une réponse immédiate, o1 prend le temps d’explorer différentes stratégies et d’affiner son approche avant de proposer une solution.

Cette approche délibérée améliore sa capacité à résoudre des problèmes complexes, permettant à o1 d’exceller dans des domaines qui exigent plus qu’une compréhension superficielle. Qu’il s’agisse de résoudre des problèmes mathématiques avancés ou de générer du code complexe, la capacité d’o1 à décomposer les tâches en étapes plus simples et à reconnaître quand il doit essayer une nouvelle approche lui donne un avantage sur les modèles précédents.

L’apprentissage par renforcement au cœur d’o1

L’apprentissage par renforcement est essentiel à la formation de ChatGPT o1. Contrairement à l’apprentissage supervisé traditionnel où le modèle apprend à partir d’ensembles de données étiquetées, l’apprentissage par renforcement permet à o1 de s’améliorer par essais et erreurs. Il est entraîné à évaluer ses propres réponses, à corriger ses erreurs et à affiner ses stratégies.

L’approche RL utilisée pour o1 est particulièrement efficace en termes de données, ce qui signifie qu’elle n’a pas besoin de grandes quantités de données d’entraînement pour apprendre efficacement. Cela rend le modèle plus adaptable et capable d’améliorer ses performances au fil du temps. En fait, OpenAI a constaté que les capacités de raisonnement d’o1 s’amélioraient au fur et à mesure qu’il utilisait davantage de « puissance de calcul en temps d’entraînement » (puissance de traitement pendant l’entraînement) et de « puissance de calcul en temps de test » (puissance de traitement lors de l’exécution des tâches).

Des performances exceptionnelles

OpenAI o1 evals jpg

ChatGPT o1 a démontré des performances exceptionnelles dans une série de benchmarks et de tests en conditions réelles. En programmation compétitive, il s’est classé dans le 89e percentile des défis Codeforces, et en mathématiques, il s’est placé parmi les 500 meilleurs étudiants aux Olympiades américaines de mathématiques. Cette performance est particulièrement remarquable étant donné que GPT-4o n’a réussi à résoudre que 12 % des problèmes en moyenne au même examen, alors qu’o1 a résolu 74 % avec un seul échantillon par problème et 93 % en utilisant des techniques d’échantillonnage avancées.

En science, o1 a été testé sur GPQA, un benchmark qui évalue l’expertise en chimie, biologie et physique. o1 a dépassé les performances d’experts humains titulaires d’un doctorat sur ce benchmark, ce qui en fait le premier modèle d’IA à surpasser les performances humaines sur ce test. Avec sa capacité à analyser les problèmes en profondeur et à affiner ses réponses, o1 a également surpassé GPT-4o sur 54 des 57 sous-catégories MMLU, renforçant encore sa réputation de modèle de raisonnement supérieur.

Des applications variées pour ChatGPT o1

Les potentielles applications de ChatGPT o1 sont vastes et couvrent de multiples secteurs. Voici quelques domaines clés où o1 devrait avoir un impact significatif :

  • Codage et développement logiciel : o1 excelle dans la génération et le débogage de code complexe. Sa capacité de raisonnement lui permet de s’attaquer à des tâches de programmation en plusieurs étapes avec précision et rapidité, ce qui en fait un outil puissant pour les développeurs.
  • Recherche scientifique : Grâce à ses capacités de raisonnement avancées, o1 est adapté à des tâches telles que la résolution d’équations complexes, la génération d’hypothèses et l’assistance aux chercheurs dans des domaines tels que la physique quantique, la biologie et la chimie.
  • Mathématiques : Les performances d’o1 aux Olympiades américaines de mathématiques démontrent sa capacité à gérer des problèmes mathématiques avancés, ce qui en fait un atout précieux pour les institutions académiques et de recherche.
  • Analyse de données : ChatGPT o1 peut être utilisé pour analyser de grands ensembles de données, faire des prédictions et tirer des conclusions dans des domaines allant de la santé aux finances, tout en affinant son processus de raisonnement pour s’améliorer au fil du temps.

Sécurité et alignement améliorés

L’une des avancées clés d’OpenAI o1 réside dans ses capacités améliorées en matière de sécurité et d’alignement. En intégrant le processus de raisonnement en chaîne de pensée dans son comportement, o1 est mieux équipé pour adhérer aux valeurs humaines et aux directives de sécurité. Le modèle apprend non seulement à raisonner à travers les tâches, mais applique également ce raisonnement pour suivre les règles de sécurité en contexte.

Lors des évaluations internes de sécurité, o1 a obtenu des résultats exceptionnels dans les tests de « jailbreaking », où les utilisateurs tentent de contourner les protocoles de sécurité. Dans l’un des tests les plus difficiles, o1 a largement surpassé GPT-4o, obtenant un score beaucoup plus élevé en matière de maintien de la conformité à la sécurité.

Le framework de préparation d’OpenAI, qui comprend des tests et des évaluations rigoureux, garantit qu’o1 est prêt à être déployé dans des environnements à enjeux élevés. La capacité de surveiller et de comprendre la chaîne de pensée de ChatGPT o1 offre également de nouvelles opportunités pour améliorer l’alignement du modèle. Cette transparence dans le raisonnement peut aider à prévenir les comportements indésirables et à garantir que le modèle adhère aux directives éthiques.

Développements futurs

OpenAI prévoit de continuer à itérer sur o1, avec de futures versions qui devraient introduire des capacités encore plus avancées. L’un des domaines d’intérêt est l’élargissement des fonctionnalités de ChatGPT o1 pour le rendre plus utile dans un plus large éventail d’applications. Actuellement, le modèle manque de certaines fonctionnalités qui sont essentielles à d’autres systèmes d’IA, comme la navigation sur le Web ou le téléchargement de fichiers. Cependant, ces fonctionnalités devraient être intégrées dans les futures mises à jour, rendant o1 encore plus polyvalent.

De plus, OpenAI travaille à l’augmentation des limites de o1 et à l’optimisation de ses performances dans des domaines tels que le traitement du langage naturel. L’objectif ultime est de créer un modèle capable de passer de manière transparente entre des tâches de raisonnement lourdes et des fonctions d’IA plus générales, tout en maintenant le haut niveau de sécurité et d’alignement qu’o1 offre actuellement.

Au fur et à mesure de son évolution, o1 promet de débloquer de nouveaux cas d’utilisation dans la science, le codage, l’analyse de données et bien d’autres domaines. Son approche de la chaîne de pensée, combinée à l’apprentissage par renforcement, le positionne comme un acteur clé dans l’avenir de l’IA, aidant les développeurs et les chercheurs à résoudre les problèmes les plus complexes avec une précision sans précédent.

Pour plus de données et d’évaluations, rendez-vous sur le site officiel d’OpenAI.

Lire plus