fermer

Robotique

Découvrez l’actualité et les grandes évolutions de la robotique, des robots industriels aux humanoïdes, en passant par les robots domestiques, médicaux et collaboratifs. Cette catégorie explore les avancées technologiques, l’intelligence artificielle embarquée, les usages concrets et les enjeux économiques et sociétaux liés à l’automatisation.

Analyses, innovations, démonstrations marquantes et perspectives d’avenir : la robotique s’impose comme un pilier majeur des technologies de demain, au croisement du hardware, du logiciel et de l’IA.

Robotique

Tesla Optimus 2027 : Elon Musk promet la vente de son robot au grand public

Tesla Optimus 2027 : Elon Musk promet la vente de son robot au grand public

À Davos, Elon Musk remet une pièce dans la grande promesse Tesla : après la voiture, le robot. Le patron du constructeur affirme désormais viser la vente de Optimus au grand public d’ici la fin 2027 — à condition que le humanoïde atteigne un niveau de fiabilité et de sécurité « très élevé ».

Lors du World Economic Forum (Davos), Elon Musk a évoqué un calendrier en deux temps : montée en puissance en interne (usines Tesla) puis ouverture au public. Axios rapporte la cible « fin 2027 » pour les ventes au grand public, tandis que Reuters souligne aussi que la production — Optimus comme Cybercab — commencera « d’une lenteur insoutenable » avant de s’accélérer.

Cette prudence affichée (« on ne vendra pas juste pour respecter une date ») sert aussi de garde-fou rhétorique : Elon Musk a un historique d’échéances agressives. C’est ce qui rend l’annonce à la fois spectaculaire… et immédiatement discutée.

Où en est Optimus : des tâches simples en usine, et « plus complexes » d’ici fin 2026

Le discours officiel est cohérent : Optimus a déjà été testé sur des tâches basiques dans les usines Tesla, et Musk dit vouloir augmenter la complexité des usages en 2026 pour « préparer » la plateforme. Plusieurs comptes rendus de Davos rapportent cette progression vers des tâches plus complexes d’ici la fin 2026.

En parallèle, Reuters décrit un enjeu très industriel : fabriquer un humanoïde à grande échelle est un monde en soi (nouvelles pièces, nouvelles méthodes, nouvelles chaînes). D’où l’idée d’un démarrage lent et d’une montée en cadence progressive.

Ambition vs réalité : l’autonomie reste le point de friction

L’éléphant dans la pièce, c’est l’écart entre « démo » et « autonomie ». Tesla a déjà été critiqué pour des présentations où des Optimus semblaient impressionnants… tout en étant largement téléopérés (contrôlés à distance) lors d’événements publics. Des sources ont notamment rapporté des éléments indiquant un recours important à l’intervention humaine, et Bloomberg avait également évoqué la téléopération pour certaines capacités lors d’une démonstration.

tesla optimus robot humanoid

Ce point n’invalide pas le projet — beaucoup d’équipes en robotique utilisent la téléopération pour collecter des données et accélérer l’apprentissage — mais il rappelle une vérité brutale : un humanoïde généraliste fiable n’est pas « juste » un modèle IA, c’est un système complet (capteurs, contrôle, dextérité, sécurité, énergie, robustesse) qui doit fonctionner dans un monde imprévisible.

Ce que signifie « vendre au public » en 2027

« Vendre au public » ne veut pas dire « robot domestique universel ». Le scénario le plus réaliste — même si Tesla ne le formule pas ainsi — ressemble à une trajectoire en paliers :

  • 2026 : usages industriels plus riches, mais dans des environnements maîtrisés (usine).
  • 2027 : premières ventes, probablement limitées en volume, sur des tâches encadrées, avec une exigence extrême de sécurité et de fiabilité (et possiblement un cadre réglementaire à inventer).

En somme, Musk vend une vision : des robots « partout », capables d’aider à la maison, et un futur où ils deviendraient plus nombreux que les humains — une projection qu’il a de nouveau évoquée à Davos.

Mais, la réalité du marché, elle, dépendra d’un triptyque très prosaïque : coût, fiabilité, responsabilité. Tant que l’un des trois cloche, l’humanoïde reste un produit de démonstration.

Lire plus
Robotique

OpenAI avance ses pions en robotique : avant l’humanoïde, la stratégie des « bras » et de la donnée

OpenAI avance ses pions en robotique : avant l’humanoïde, la stratégie des « bras » et de la donnée

On attend depuis des années le fameux « moment humanoïde », celui où les robots quittent enfin les labos pour devenir (un peu) banals. Et, si le déclencheur n’était pas un bipède spectaculaire… mais une armée de bras robotisés entraînés patiemment, 24 heures sur 24, sur des gestes du quotidien ?

D’après Business Insider, OpenAI s’est remis sérieusement à la robotique avec un laboratoire discret à San Francisco — une approche méthodique, obsédée par la donnée, qui ressemble beaucoup à ce que l’IA générative a déjà fait au texte.

Selon la source, OpenAI a mis sur pied un labo de robotique à San Francisco en février 2025, depuis quadruplé, et désormais opéré en continu. Environ 100 collecteurs de données y téléopèrent des bras robotisés, épaulés par au moins une douzaine d’ingénieurs robotique — avec un objectif très concret : générer des démonstrations humaines en volume, pour entraîner des modèles capables d’agir dans le monde réel.

Point important : le focus n’est pas (encore) le robot humanoïde complet. OpenAI travaille surtout sur des bras robotisés à coût relativement bas, entraînés à exécuter des tâches domestiques simples, mais révélatrices : manipuler des objets, plier du linge, interagir avec des appareils du quotidien.

GELLO : le contrôleur 3D imprimé qui « mappe » vos mains aux robots

Le moteur de cette collecte s’appelle GELLO, un contrôleur de téléopération imprimé en 3D qui reproduit cinématiquement le bras cible : vous bougez le « petit bras » dans votre main, le robot imite. C’est une idée élégante, presque artisanale, mais redoutablement efficace pour obtenir des démonstrations fluides et intuitives.

Ce détail est moins gadget qu’il n’y paraît : en robotique, le mur n’est pas toujours l’algorithme — c’est la qualité et la diversité des données d’action (prises, trajectoires, erreurs, corrections, gestes ambigus). GELLO a justement été conçu pour réduire le coût et la complexité de cette collecte.

Pourquoi OpenAI commence par des bras, et pourquoi ça a du sens ?

Le choix des bras plutôt que du « full humanoid » est pragmatique :

  • C’est plus contrôlable : moins de degrés de liberté, moins de scénarios de chute, moins de problèmes de locomotion.
  • C’est plus utile tout de suite : la manipulation (prendre, poser, ouvrir, verser) est la brique universelle, celle qui sert autant en maison qu’en entrepôt.
  • C’est scalable : on peut déployer plusieurs postes de téléopération, accumuler des heures de gestes, standardiser des tâches… bref, industrialiser la donnée.

En filigrane, OpenAI semble appliquer une recette déjà connue : « beaucoup de données + modèle généraliste + itérations rapides ». La promesse implicite : une fois la manipulation maîtrisée, le corps (humanoïde) devient « un autre support », pas le vrai problème.

L’ambition est là : un second labo en Californie, et l’ombre de l’humanoïde

Toujours selon Business Insider, OpenAI prévoirait un second labo à Richmond (Californie), signe que l’effort n’est pas un simple prototype interne, mais un chantier qui se structure.

Et pendant qu’OpenAI bâtit ses fondations, le reste du marché accélère : partenariats industriels, annonces de déploiement, tensions sociales autour de l’automatisation. En janvier 2026, Reuters rapporte par exemple les débats chez Hyundai autour de l’introduction d’humanoïdes Boston Dynamics dans la production, et l’intérêt d’acteurs comme Airbus pour des robots humanoïdes en manufacturing.

Autrement dit : le « moment humanoïde » se prépare sur deux fronts — la vitrine (les bipèdes) et l’infrastructure invisible (les données, les modèles, la manipulation). OpenAI, lui, semble avoir choisi de commencer par l’infrastructure.

Si cette trajectoire se confirme, l’événement n’arrivera pas sous la forme d’un robot-star. Il arrivera comme une évidence : un assistant qui sait enfin faire — parce qu’on lui aura appris, geste par geste, à vivre dans notre monde.

Lire plus
Robotique

Apple Home Hub 2026 : La base motorisée qui vous suit du regard dévoilée

Apple Home Hub 2026 : La base motorisée qui vous suit du regard dévoilée

Depuis plus d’un an, le futur « Home Hub » d’Apple flotte entre fantasme domotique et produit fantôme. Mais les dernières fuites dessinent enfin une silhouette cohérente : un petit écran, une base ronde, et — nouveauté — un mécanisme de rotation motorisé, comme si l’objet cherchait littéralement à rester face à vous.

Selon The Information, Apple préparerait un Home Hub « dès ce printemps », avec un appareil décrit comme doté d’un petit écran, de haut-parleurs, et d’une base pivotante robotisée.

Le projet resterait toutefois suffisamment amont pour qu’un changement de trajectoire (ou une annulation) ne soit pas impossible — un classique chez Apple dès qu’il est question de nouvelles catégories.

Le design de cet « Home Hub » : l’ombre assumée de l’iMac G4

Cette base robotisée vient enrichir un design déjà évoqué par Mark Gurman dès octobre 2024 : un appareil qui emprunterait des codes à l’iMac G4 (« lampe »), avec un écran de la taille de deux iPhone côte à côte posés sur une base circulaire.

Autre élément de la même saga : Apple travaillerait en parallèle sur une version plus haut de gamme avec bras robotisé, parfois évoquée autour des 1 000 dollars — plutôt un « robot de table » qu’un simple hub.

À quoi servirait la base pivotante : vous suivre, sans que vous y pensiez

The Information ne détaille pas l’usage de cette base motorisée, mais la logique produit est presque évidente : maintenir l’écran orienté vers l’utilisateur.

Plusieurs fuites antérieures sur le « hub à écran » mentionnent une caméra frontale (FaceTime) et un éventail de capteurs, ce qui ouvrirait la porte à un suivi « doux » de position — utile pour un appel vidéo, une recette en cuisine, ou un contrôle domotique en mouvement dans une pièce.

Le vrai sujet, c’est Siri — et Apple le sait

Ce hub n’a de sens que s’il devient l’interface la plus naturelle de la maison Apple. Et en 2026, l’interface, ce n’est plus seulement un écran : c’est l’IA. À court terme, Bloomberg situe une itération de Siri plus « personnelle » autour d’iOS 26.4, attendue au printemps 2026. À l’étage au-dessus, Gurman décrit une refonte plus radicale : Siri transformé en chatbot (voix + texte), projet « Campos », prévu comme pièce maîtresse d’iOS 27/macOS 27 (plutôt seconde partie de 2026).

Dans ce contexte, un Home Hub « très orienté IA » devient une évidence stratégique : Apple chercherait moins à copier un Echo Show qu’à installer un assistant conversationnel ambiant, toujours disponible, pensé pour piloter HomeKit, FaceTime et les services Apple — avec un objet qui « se tourne vers vous » comme un signe physique d’attention.

La question restera la même qu’à chaque tentative de smart display premium : qu’apporte-t-il que l’iPhone sur le plan de travail ne fait pas déjà ? La réponse d’Apple pourrait tenir en deux mots : présence et continuité. Si l’écran pivote, si Siri comprend mieux, si la domotique devient vraiment proactive… le hub cesse d’être un accessoire. Il devient un « centre de gravité ».

Lire plus
Robotique

Atlas x Gemini : Le robot de Boston Dynamics reçoit enfin son « cerveau » IA avec Google

Atlas x Gemini : Le robot de Boston Dynamics reçoit enfin son « cerveau » IA avec Google

La vraie rupture n’est pas que Atlas marche « comme nous ». C’est qu’il commence à travailler là où tout a été conçu pour des humains : des allées d’entrepôts aux lignes d’assemblage, entre palettes, bacs, outils et imprévus. Au CES 2026, Boston Dynamics — sous l’aile de Hyundai — a présenté un Atlas prêt pour la production, pensé moins pour impressionner que pour durer.

Pendant des années, Atlas a servi de vitrine : agilité, équilibre, acrobaties… une démonstration de ce que la robotique savait faire au sommet de l’état de l’art. La version montrée début janvier à Las Vegas change de ton : elle vise le travail répétitif, pénible ou risqué, en priorité dans l’automobile, la logistique et la manufacture.

Le message — très « Hyundai » — est limpide : l’humanoïde n’est plus un prototype de labo, c’est un pari industriel, intégré à une stratégie de « physical AI » (robotique + données terrain + décision autonome).

Ce qui change vraiment sur le nouvel Atlas (et pourquoi ça compte)

Sur le papier, certaines caractéristiques font immédiatement « robot de terrain » plutôt que « robot de scène » :

  • Capacité de charge annoncée à 50 kg : un seuil symbolique, car il rapproche Atlas des contraintes réelles de manutention (bacs, pièces, kits, outillage).
  • Conception orientée robustesse (usage en environnement industriel, y compris conditions thermiques annoncées de -20 °C à 40 °C).
  • Remplacement autonome de batterie : détail clé, parce que l’automatisation échoue souvent sur des « petites » frictions (arrêts, charge, logistique d’énergie) qui tuent la productivité.
  • Apprentissage accéléré des tâches : Hyundai/Boston Dynamics mettent en avant des tâches « enseignables » en moins d’une journée — un indicateur de déploiement rapide à l’échelle, si tenu en conditions réelles.

Ce n’est pas seulement une liste de spécifications : c’est une déclaration d’intention. Atlas n’est pas là pour « imiter l’humain » ; il est là pour tenir le rythme, sans pause, sans dérive de qualité, dans des workflows existants.

Boston Dynamics Atlas Features

L’IA comme accélérateur : DeepMind, Gemini et l’ambition de l’autonomie utile

L’autre bascule est logicielle. Boston Dynamics et Google DeepMind ont officialisé un partenariat pour intégrer des capacités d’IA « fondation » (notamment autour de Gemini Robotics) et démarrer des recherches communes sur une flotte d’Atlas.

Derrière les formules (« reconnaissance d’objets », « décision en temps réel »), l’enjeu est simple : réduire l’écart entre un robot qui sait bouger et un robot qui sait travailler. Le vrai monde n’est pas un gymnase : c’est un environnement changeant, encombré, parfois mal rangé, avec des exceptions à gérer.

C’est aussi là que se joue la sécurité : des comportements plus prévisibles, une compréhension plus fine des contextes, et des modes d’intervention humaine plus clairs.

Déploiement, travail, sécurité : ce que Hyundai tente de verrouiller

Hyundai annonce une montée en puissance par étapes, avec une première utilisation visée à partir de 2028 (notamment pour du parts sequencing dans son usine américaine en Géorgie), puis une extension vers l’assemblage et d’autres tâches ensuite.

En parallèle, le groupe vise une capacité de production pouvant atteindre 30 000 robots par an d’ici 2028 — un chiffre qui dit « industrie », pas « démo ».

Et le sujet qui fâche arrive vite : l’emploi. Les discours officiels insistent sur l’assistance plutôt que le remplacement, et sur l’émergence de nouveaux rôles (maintenance, formation, supervision). C’est crédible… mais incomplet. Le point de friction sera moins « l’humanoïde remplace l’humain » que la reconfiguration des tâches, des cadences et des exigences de conformité sécurité.

atlas robot ces 2026 factory ready

Car un humanoïde dans une usine, c’est aussi des procédures HSE à réécrire, des zones de coactivité à définir, des responsabilités à tracer (qui valide, qui interrompt, qui audite), et une normalisation qui devra suivre la réalité du terrain.

L’humanoïde cesse d’être une promesse — il devient un produit (donc un débat)

Le nouvel Atlas n’est pas seulement une prouesse : c’est une tentative d’industrialiser l’idée même du robot « généraliste » capable d’évoluer dans nos espaces. S’il réussit, il imposera une nouvelle grammaire du travail — où l’automatisation ne se limite plus aux bras fixes et aux cages, mais circule, manipule et s’adapte.

Et, c’est précisément là que la frontière « humain-machine » commence à se flouter : non pas dans l’apparence, mais dans la place que la machine occupe, au milieu de nous.

Lire plus
Robotique

Zeroth M1, le premier robot humanoïde que vous pourrez vraiment acheter en avril

Zeroth M1, le premier robot humanoïde que vous pourrez vraiment acheter en avril

Au CES 2026, les robots étaient partout — souvent expressifs, parfois maladroits, presque toujours démonstratifs. Zeroth Robotics a choisi une autre tactique : arriver avec cinq noms d’un coup, mais une seule promesse vraiment « achetable » tout de suite. Dans cette vitrine très saturée, le Zeroth M1 se distingue parce qu’il ne se contente pas d’exister en vidéo : il vient avec un prix, une fenêtre de précommande et une date de disponibilité.

Le Zeroth M1 est le seul modèle avec un calendrier clair

Selon la communication de Zeroth et les premiers retours presse, le Zeroth M1 est un petit humanoïde d’environ 49 cm pensé pour des routines quotidiennes : rappels, présence, assistance légère à la maison — avec une cible assumée, les personnes âgées vivant à domicile, mais aussi les parents et les foyers qui veulent « un robot compagnon programmable » au fil du temps.

Zeroth annonce :

  • Précommandes aux États-Unis en Q1 2026, à partir de 2 899 dollars
  • Disponibilité générale prévue en avril 2026

Dans un CES où beaucoup de robots restent des démonstrateurs sans timeline, cette précision raconte déjà une ambition : passer du stand à la maison.

Ce que Zeroth montre à Las Vegas : deux démos, trois « aperçus »

Sur le salon, Zeroth met surtout en avant M1 et W1. Le second est un assistant à roues, très expressif (certains y voient un clin d’œil évident à WALL·E), destiné aux maisons, aux écoles, et à des espaces « à forte interaction » comme le retail ou les parcs à thème — mais sans calendrier d’achat aussi verrouillé que M1 pour l’instant.

videoframe 2505

Les autres robots présentés servent davantage de projection de gamme :

  • A1, un quadrupède orienté recherche/enseignement/ingénierie
  • Jupiter, un humanoïde plus grand, pensé pour l’exécution de tâches « réelles » en combinant autonomie et téléopération.

Le message implicite est clair : Zeroth veut raconter un futur complet — mais ne vend que le chapitre 1, et ce chapitre s’appelle Zeroth M1.

Pourquoi un robot « de routines » a plus de chances qu’un robot « de miracles » ?

Le marché du robot domestique souffre d’un problème chronique : il promet des usages trop larges, puis se heurte au réel (sécurité, fiabilité, navigation, interaction humaine). Au CES 2026, plusieurs observateurs ont pointé un décalage persistant entre la mise en scène et la robustesse (robots qui tombent, tâches ménagères mal exécutées, autonomie floue).

Zeroth tente un positionnement plus prudent : rappels, accompagnement, présence, et une progression par « skills » au fil des mises à jour, plutôt qu’un robot majordome omnipotent dès le premier jour. Cette approche s’aligne avec une tendance visible sur le salon : l’IA quitte l’écran pour devenir compagnon physique, parfois plus relationnel qu’utilitaire.

Et à 2 899 dollars, Zeroth vise une zone psychologique intéressante : assez bas pour ne pas ressembler à un prototype à 15 000 dollars, mais assez haut pour exiger une vraie proposition de valeur — et une vraie transparence sur les limites.

Capacités « day one », sécurité, et promesse logicielle

Entre une fiche marketing et un produit domestique, il y a un fossé : ce que le robot sait faire le premier jour, de manière fiable, sans supervision constante.

Trois points seront décisifs à l’approche des précommandes :

  1. Le niveau d’autonomie réel : le Zeroth M1 est-il un compagnon qui exécute des routines simples, ou une présence pilotée/assistée en coulisses ? La frontière est fine, et le marché devient de plus en plus sensible au « téléopéré déguisé ».
  2. La sécurité et les garde-fous : Un robot à domicile implique mouvement, proximité, enfants, animaux, objets fragiles. Zeroth évoque une « safety stack » et des capacités de perception, mais la crédibilité passera par la manière dont l’entreprise expliquera ce que M1 ne fera pas (zones interdites, forces maximales, comportements d’arrêt, etc.).
  3. La stratégie d’évolutivité : Zeroth promet que M1 « grandira » via mises à jour et nouvelles compétences. C’est séduisant — mais cela demande un écosystème (app, SDK, bibliothèque de comportements, politique de support). Le risque classique des robots grand public, c’est de vendre un futur logiciel qui n’arrive jamais.

Zeroth M1, un achat… ou un pari ?

Le Zeroth M1 est peut-être moins spectaculaire que les humanoïdes industriels, et moins « mème » qu’un robot au look Pixar. Mais, il coche une case rare au CES : il est présenté comme un produit, pas seulement comme une vision.

Reste la vraie question, celle qui sépare la robotique « sympa » de la robotique durable : est-ce que Zeroth livrera en avril un compagnon réellement utile — ou un objet attachant qui vit surtout de promesses logicielles ? Dans cette course, la meilleure démo ne sera pas sur un stand, mais dans un salon, un mardi soir ordinaire.

Lire plus
Robotique

CES 2026 : CLOiD, le robot domestique de LG qui incarne la maison intelligente de demain

CES 2026 : CLOiD, le robot domestique de LG qui incarne la maison intelligente de demain

Chez LG, le CES 2026 n’a pas été présenté comme une simple conférence de presse, mais comme une « World Premiere ». En réalité, rien de fondamentalement inédit sur le papier. Et pourtant, un élément a cristallisé toute l’attention : CLOiD, prototype de robot domestique sur roues, pensé comme l’incarnation physique de la vision de LG pour la maison intelligente de demain.

CLOiD, ou la matérialisation d’un futur longtemps fantasmé

Dévoilé sur la scène du CES 2026, Cloid (ou CLOiD, selon l’orthographe officielle) n’est pas un produit, ni même une promesse commerciale à court terme. Il s’agit d’un manifeste.

Conçu par LG, ce robot domestique reprend presque tous les codes de la science-fiction des années 1950 avec une base roulante massive, des mouvements volontairement lents, des bras très articulés, et des mains… démesurées.

Un design qui semble directement sorti de l’imaginaire des auteurs qui rêvaient d’un futur débarrassé des corvées ménagères — sans toutefois aller jusqu’aux excès de The Jetsons, où même le brossage de dents devenait une tâche robotisée (et légèrement terrifiante).

Une démonstration parfaitement chorégraphiée

La scène était classique, presque attendue. Un dirigeant LG, un robot immobile à côté d’un lave-linge, une serviette humide remise à CLOiD après une averse — malgré un costume parfaitement sec.

La consigne est simple : « Deal with it ». CLOiD saisit le linge, pivote lentement, le lave-linge s’ouvre automatiquement, le robot dépose la serviette, la porte se referme. Fin de la démonstration. Tout est maîtrisé, millimétré, sécurisé. LG n’a clairement pris aucun risque. À ce stade du développement robotique, la moindre défaillance ferait plus de bruit que toutes les promesses réunies.

Mais derrière cette démonstration presque clinique, un message clair se dessine.

CLOiD n’est pas (encore) un robot utile — et ce n’est pas le sujet

Il faut être honnête : CLOiD est extrêmement limité. Il ne peut pas ramasser un objet au sol, se baisser sous le niveau des genoux, et se déplacer rapidement. Ces contraintes sont assumées. La lenteur est pensée comme une mesure de sécurité, pour cohabiter avec enfants et animaux. CLOiD n’est pas là pour impressionner, mais pour rassurer.

Pourtant, la technologie embarquée est loin d’être anodine : caméras, capteurs multiples, écran intégré, haut-parleurs, et surtout une couche complète d’IA générative pour la voix et l’interaction.

Ce n’est pas un robot démonstrateur de performance. C’est un support narratif.

Le vrai message de LG : donner un visage à l’IA domestique

press setting image desktoptable

Ce que LG tente réellement avec CLOiD, ce n’est pas de vendre un robot. C’est de rendre tangible une idée abstraite : celle d’une IA omniprésente dans la maison. Une IA qui apprend vos habitudes, ajuste la climatisation sans intervention manuelle, comprend vos préférences vestimentaires, et adapte la cuisson de vos croissants à votre goût précis.

CLOiD devient alors une interface physique, un symbole rassurant et incarné d’un système invisible. Une façon de faire accepter l’IA non pas comme un logiciel, mais comme une présence.

Des mains géantes… mais une ingénierie très sérieuse

Impossible de ne pas mentionner les mains de CLOiD. Elles sont énormes. Vraiment. Et légèrement inquiétantes. Mais derrière ce design presque grotesque se cache une intention claire : la précision motrice. Les bras disposent d’une amplitude de mouvement impressionnante, et LG a longuement insisté sur le développement de ses propres actuateurs, notamment l’Axium actuator, véritable pièce maîtresse de sa stratégie robotique.

Ce focus révèle beaucoup : LG ne voit pas la robotique comme un gadget marketing, mais comme un axe industriel de long terme, à la croisée de l’électroménager, de l’IA et de la mécatronique avancée.

Au CES 2026, LG ne promet pas — il symbolise

Cette année à Las Vegas, toutes les grandes marques veulent être perçues comme leaders en IA et en robotique. Beaucoup parlent de puissance, de benchmarks, de performances spectaculaires. LG, lui, a fait autre chose. Il a donné un visage à sa vision.

CLOiD n’est pas impressionnant par ce qu’il fait, mais par ce qu’il représente. Il ne nettoie pas, ne cuisine pas, ne range pas votre maison. Il incarne la transition entre une IA abstraite et un futur domestique où la technologie devient une présence familière.

À ce stade, CLOiD est lent, imparfait, limité. Mais comme souvent avec les prototypes marquants, ce n’est pas sa version actuelle qui compte — c’est la direction qu’il indique. Et au CES 2026, LG a clairement pointé vers l’avenir.

Lire plus
Robotique

LG CLOiD : Le majordome robotique qui plie votre linge arrive au CES 2026

LG CLOiD : Le majordome robotique qui plie votre linge arrive au CES 2026

LG avait promis un aperçu d’un futur foyer à « zéro corvée » lors du CES 2026. On en sait désormais un peu plus sur la vision très ambitieuse du constructeur. Son nouveau robot domestique, baptisé CLOiD, est conçu pour prendre en charge une partie significative des tâches quotidiennes : aller chercher du lait dans le réfrigérateur, mettre un croissant au four, ou encore s’occuper du linge… jusqu’à le plier et l’empiler.

LG CLOiD : Un robot domestique aux capacités étonnamment avancées

CLOiD n’est pas le premier robot capable de plier le linge, et il n’est même pas le seul à proposer cette fonction au CES cette année. Mais sur le papier, la solution de LG se distingue nettement. Là où certains concurrents adoptent un design minimaliste, CLOiD embarque deux bras entièrement articulés, chacun offrant sept degrés de liberté, montés sur un torse capable de s’incliner et de se pencher.

Cette architecture lui permet de manipuler des objets avec une précision bien plus proche de celle d’un humain.

Sa tête, qui rappelle beaucoup celle du robot Q9 de LG (sans la poignée), est conçue pour communiquer à la fois par la voix et par des expressions faciales numériques. Oui, recevoir un regard désapprobateur d’un robot fait officiellement partie du futur.

Un hub domotique… avec des bras

Au-delà de ses capacités mécaniques, CLOiD se positionne comme un véritable centre de contrôle de la maison connectée. Il est compatible avec les plateformes ThinQ et ThinQ ON, ce qui lui permet d’interagir de façon très fluide avec l’écosystème d’appareils LG : électroménager, objets connectés, capteurs et services intelligents.

En pratique, CLOiD agit comme un hub domotique mobile et autonome, capable non seulement de piloter les appareils, mais aussi d’agir physiquement sur eux.

Un majordome robotique… pour qui ?

Reste évidemment la grande question : qui voudra — et pourra — se permettre un tel robot à domicile ? Avoir un assistant mécanique qui se promène librement dans la maison et exécute des ordres ne séduira pas tout le monde, sans parler du prix, encore inconnu, mais probablement élevé.

Avec CLOiD, LG semble néanmoins parier sur un avenir où nous aspirerions tous à un majordome, une aide-ménagère, un chef et même un coach personnel robotisé. Une vision futuriste qui oscille entre fascination technologique et science-fiction… mais qui, chez LG, commence clairement à prendre forme.

Lire plus
Robotique

Miro U : Midea dévoile un humanoïde à 6 bras roulants pour l’industrie

Miro U : Midea dévoile un humanoïde à 6 bras roulants pour l'industrie

Avec Miro U, Midea signe l’une des avancées les plus audacieuses de la robotique moderne : un humanoïde hybride, pensé non pas pour impressionner… mais pour produire.

Le futur de l’automatisation ne ressemble pas à un androïde hollywoodien. Il ressemble à Miro U, le nouveau robot humanoïde présenté par Midea à Guangzhou — un colosse roulant, équipé de six bras bioniques, capable d’effectuer plusieurs tâches simultanément et de se faufiler dans un atelier avec une précision chirurgicale.

Miro U n’est pas une démo de laboratoire. C’est un outil industriel, conçu pour rejoindre les lignes de production dès 2025. Et, il pourrait très vite devenir le standard d’une nouvelle génération de robots polyvalents.

Six bras, roues et rotation à 360° : le premier humanoïde pensé comme une “machine multitâche”

Alors que ses concurrents misent sur des robots bipèdes classiques, Midea prend une autre voie : une plateforme wheel-leg capable d’accélérations rapides, de rotation sur place, et surtout d’une polyvalence inédite grâce à ses six bras modulaires.

En clair, Miro U peut soulever verticalement des pièces, manipuler plusieurs objets à la fois, changer d’outils en quelques secondes, collaborer avec des robots mobiles, et s’insérer dans une production existante sans tout reconfigurer.

Chaque bras embarque un contrôle haute précision et un système d’effecteurs interchangeables. Une approche radicale — loin du fantasme de l’humanoïde généraliste — mais parfaitement alignée avec les besoins réels des usines modernes.

Un robot conçu pour l’usine, pas pour la vitrine

Miro U est la troisième génération de robots humanoïdes industriels développés par Midea. La génération précédente travaille déjà dans l’usine de Jingzhou aux côtés de robots mobiles autonomes (AMR), de robots Kuka, de robots mono-bras, et opérateurs humains.

Une vision claire : des humanoïdes conçus pour s’intégrer, pas remplacer. Miro U, lui, rejoindra l’usine de machines à laver haut de gamme de Wuxi d’ici fin 2025.

Objectif annoncé : +30 % d’efficacité dans les ajustements de la ligne, réduction du takt time, flexibilité accrue dans les changements de production.

Autrement dit : un robot qui fait gagner de l’argent, pas seulement des applaudissements.

Midea unveils Miro U 1

Midea ne construit pas des robots, Midea construit une plateforme

Wei Chang, VP et CTO, l’a confirmé : Midea maîtrise tout le stack technologique, du hardware à l’IA.

Deux gammes avancent en parallèle :

Miro — Robots humanoïdes industriels

  • Trois générations déjà bouclées
  • Miro U comme modèle le plus avancé
  • Optimisation du travail en usine

Mila — Robots humanoïdes “grand public”

  • Destinés aux magasins, commerces, domiciles
  • En phase finale de test
  • Déploiement prévu en 2026 dans les experience stores de Midea.(consignes clients, démonstrations interactives, orientation)

Midea cherche clairement à devenir un acteur massif de la robotique, du foyer à l’usine.

Une course technologique qui s’accélère

Miro U arrive dans un contexte où la robotique humanoïde connaît une effervescence inédite. Unitree a dévoilé son premier humanoïde sur roues avec vision avancée et apprentissage autonome, tandis que Dobot lance un robot-chien à 1 000 dollars, l’un des plus sophistiqués jamais vendus au grand public, et que Tesla, Figure, Fourier poursuivent leurs humanoïdes bipèdes.

Mais, Midea adopte une stratégie singulière :
le volume avant le spectacle. Ses robots ne défilent pas sur scène : ils entrent dans une usine, prennent un tournevis… et travaillent huit heures d’affilée.

Miro U n’est pas une preuve de concept. C’est une brique dans un plan d’automatisation à long terme, clairement assumé par Midea. Et s’il tient ses promesses, l’humanoïde multitâche pourrait devenir la nouvelle norme dans les usines — plus flexible que les bras fixes, moins fragile que les bipèdes, plus rentable que les chaînes hyper-spécialisées.

Le futur du travail industriel pourrait bien avoir six bras… et deux roues.

Lire plus
Robotique

Xpeng Motors va lancer la production en série du robot humanoïde IRON fin 2026

Xpeng Motors va lancer la production en série du robot humanoïde IRON fin 2026

Le constructeur automobile chinois Xpeng Motors vient d’annoncer un virage stratégique majeur : la production en série de robots humanoïdes avancés d’ici fin 2026.

Présenté lors du Xpeng Tech Day 2025, le robot IRON incarne l’ambition du groupe d’étendre son savoir-faire au-delà des véhicules électriques pour devenir un leader mondial de la robotique et de l’intelligence artificielle.

Présentation du robot IRON : « le plus humain de l’industrie »

Le Xpeng IRON se distingue par 60 articulations et 200 degrés de liberté, une taille de 1,73 m pour 70 kg, une batterie entièrement à l’état solide, et une puce d’IA propriétaire développée en interne.

Selon TechNode, ces caractéristiques permettent à IRON d’imiter les mouvements et expressions humaines avec un réalisme inédit.

Le PDG He Xiaopeng a insisté sur la philosophie du projet : « Nous avons intégré dans IRON toute notre expertise en capteurs, en IA et en conception, pour créer un robot capable d’interagir naturellement avec son environnement ».

Technologies clés : batteries solides et puces maison

Deux innovations majeures propulsent ce projet :

  1. Les batteries solides, plus légères et sûres que les batteries lithium-ion classiques, ouvrent de nouvelles perspectives pour la robotique mobile.
  2. La puce Turing, développée par Xpeng, offre une puissance de calcul de 3 000 TOPS — essentielle pour la perception, le mouvement et les interactions autonomes.

Ces composants sont issus des technologies déjà employées dans les véhicules électriques de la marque, notamment les modèles P7 et G9, renforçant la cohérence du « Xpeng AI Ecosystem ».

xpeng iron smp

Cap sur la production de masse fin 2026

Xpeng prévoit une production pilote dès le premier semestre 2026, avant une montée en cadence dans la seconde moitié de l’année. L’entreprise mise sur une approche progressive, avec des déploiements initiaux dans des environnements commerciaux et industriels — entrepôts, robotaxis, services automatisés — avant une éventuelle utilisation domestique.

Cette stratégie vise à assurer la fiabilité et la rentabilité du produit avant sa généralisation.

Un plan global : véhicules autonomes, robotaxis et humanoïdes

Le lancement du robot IRON s’inscrit dans une stratégie à quatre piliers définie par He Xiaopeng :

  1. Robots humanoïdes,
  2. Véhicules autonomes de niveau L4,
  3. Robotaxis,
  4. Puce IA Turing de nouvelle génération.

Dès 2026, Xpeng prévoit le déploiement de trois modèles de robotaxis à Guangzhou, exploitant la même base technologique qu’IRON pour la perception et la navigation.

Une course mondiale face à Tesla et Xiaomi

Cette annonce alimente la course mondiale à la robotique humanoïde. Xpeng rejoint ainsi Tesla (avec son robot Optimus), Xiaomi, et BYD, qui développent eux aussi leurs propres solutions robotiques.

Le Financial Times souligne que la maîtrise des batteries solides pourrait offrir à Xpeng un avantage concurrentiel décisif dans ce nouveau marché.

Malgré son enthousiasme, Xpeng devra surmonter plusieurs défis :

  • Réglementation floue autour des humanoïdes,
  • Coûts élevés de production et d’entretien,
  • Fiabilité et sécurité en milieu humain.

Mais l’entreprise estime que la combinaison de ses technologies automobiles, robotiques et IA pourrait transformer le secteur industriel chinois — et, à terme, l’économie mondiale.

Avec IRON, Xpeng ne se contente plus d’être un constructeur automobile, mais devient un acteur majeur de la révolution humanoïde — un pari ambitieux qui pourrait, d’ici 2026, redéfinir l’équilibre du marché mondial entre mobilité autonome et robotique intelligente.

Lire plus
Robotique

Arduino Uno Q : Le nouveau « cerveau » double processeur qui révolutionne l’IA et la robotique embarquée

Et si une seule carte pouvait combler le fossé entre la facilité d’accès des débutants et la puissance recherchée par les professionnels ? C’est précisément la promesse de la Arduino Uno Q, une nouvelle génération de carte de développement dotée d’une architecture double processeur. Présentée lors de l’annonce d’acquisition de Arduino par Qualcomm, la Uno Q ne se contente pas d’être polyvalente : elle offre une synergie parfaite entre calcul haute performance et contrôle en temps réel.

Imaginez pouvoir créer un dispositif IoT capable de collecter et d’analyser des données complexes tout en réagissant à son environnement en une fraction de seconde.

Que vous soyez maker débutant ou ingénieur confirmé, la Uno Q redéfinit les limites du prototypage, de la robotique et de l’IA embarquée.

Un matériel qui combine puissance et précision

Au cœur de la Arduino Uno Q se trouve une alliance inédite :

  • Processeur Qualcomm Dragonwing QRB2210 (ARM Cortex-A53) — Fonctionnant sous Linux, elle offre la puissance nécessaire pour exécuter des scripts Python, gérer des modèles d’intelligence artificielle ou encore effectuer des tâches de vision par ordinateur.
  • Microcontrôleur STM32U585 (ARM Cortex-M33) — Optimisé pour le contrôle en temps réel et la basse consommation, il tourne sous Zephyr OS et gère les interactions matérielles avec une précision extrême.

Cette architecture double permet une collaboration fluide entre les deux processeurs : le premier s’occupe du calcul intensif (inférence IA, traitement d’images), pendant que le second pilote capteurs et actionneurs en temps réel.

Autres caractéristiques techniques

  • 2 Go de RAM LPDDR4 + 16 Go de stockage eMMC intégré
  • Wi-Fi 5 double bande (2,4/5 GHz) et Bluetooth 5.1
  • Port USB-C : alimentation, transfert de données et sortie vidéo
  • Connecteurs UNO classiques compatibles avec les shields Arduino
  • Matrice de LED 8×13 intégrée pour l’affichage ou le prototypage visuel
  • Connecteur Qwiic pour extensions modulaires sans soudure

Logiciel : la rencontre entre Linux et Zephyr

La Arduino Uno Q combine deux environnements complémentaires :

  • Linux, pour le développement d’applications complexes et l’exécution de scripts haut niveau ;
  • Zephyr OS, pour la gestion du matériel en temps réel.

Les développeurs peuvent utiliser :

  • Le Arduino IDE ou AppLab pour coder des projets classiques ;
  • Python pour l’automatisation, l’IA ou la science des données ;
  • des modules IA embarqués pour des projets de Edge Computing.

Cette flexibilité unique simplifie la création de systèmes complets où collecte, traitement et action fonctionnent de concert.

Démonstration pratique : affichage météo intelligent

Un exemple concret illustre bien le potentiel de la carte : le processeur sous Linux récupère des données météo en temps réel via une API, tandis que le microcontrôleur sous Zephyr pilote une matrice LED pour afficher la température et l’humidité.

Ce travail d’équipe montre comment la Uno Q excelle dans les projets IoT, où il faut combiner analyse de données et réactivité matérielle instantanée.

Fiche technique de la Uno Q

Composant Spécification
Processeur principal (MPU) Qualcomm® Dragonwing™ QRB2210 (ARM Cortex-A53)
Microcontrôleur (MCU) STM32U585 (ARM Cortex-M33)
RAM/Stockage 2 Go LPDDR4/16 Go eMMC
Connectivité Wi-Fi 5, Bluetooth 5.1
I/O GPIO, UART, I2C, SPI, connecteurs UNO & Qwiic
Affichage intégré Matrice LED 8 × 13
Alimentation et ports USB-C (Power Delivery, vidéo, données)
Systèmes d’exploitation Linux + Zephyr OS

Domaines d’application

  • IA embarquée (Edge AI) : exécution locale de modèles de reconnaissance d’images ou d’analyse prédictive.
  • Robotique : contrôle précis de moteurs et capteurs avec calculs complexes pour la navigation ou la détection d’objets.
  • IoT: développement d’objets connectés capables de traiter et transmettre des données intelligemment.
  • Vision artificielle : détection et suivi d’objets en temps réel pour la sécurité ou les véhicules autonomes.
  • Éducation et interfaces interactives : création d’affichages dynamiques et outils pédagogiques.

Une révolution pour les makers et les pros

Avec son architecture double, sa compatibilité Linux + Zephyr et son écosystème logiciel ouvert, la Arduino Uno Q s’impose comme une plateforme de développement inédite. Ce n’est pas seulement une nouvelle carte Arduino — c’est une passerelle entre l’apprentissage et la recherche avancée, entre le prototypage rapide et la production intelligente.

Vendue moins de 50 euros, la Uno Q, c’est la simplicité Arduino au service de la puissance du calcul embarqué.

Lire plus
Robotique

Apple exige l’automatisation de ses usines : iPhone et Mac bientôt 100 % robotisés ?

Apple exige l’automatisation de ses usines : iPhone et Mac bientôt 100 % robotisés ?

Selon un rapport de DigiTimes, Apple accélère l’intégration de la robotisation et de l’automatisation dans sa chaîne d’approvisionnement.

Le géant californien exigerait désormais que l’automatisation devienne un critère obligatoire pour obtenir un contrat de fabrication, couvrant l’ensemble de ses produits : iPhone, iPad, Mac et Apple Watch.

Un changement stratégique dans la production Apple

Jusqu’à présent, Apple participait souvent au financement des machines et outils pour ses partenaires afin de garantir la qualité de production. Désormais, le groupe de Cupertino demanderait à ses fournisseurs de financer eux-mêmes leurs investissements en robotique et automatisation.

L’objectif serait triple :

  • réduire la dépendance à la main-d’œuvre humaine,
  • assurer une qualité homogène dans les usines réparties à travers le monde,
  • mieux maîtriser les coûts dans un contexte économique incertain.

Des coûts lourds pour les fournisseurs

Si l’automatisation peut améliorer la consistance des produits et limiter les risques liés aux pénuries de main-d’œuvre ou aux tensions géopolitiques, elle représente aussi un investissement colossal.

De nombreux partenaires de la marque auraient déjà vu leurs profits impactés par la mise en place de robots industriels et de systèmes automatisés. Certains auraient même connu des perturbations dans leur production durant la transition.

Apple maintient ses objectifs environnementaux

En parallèle, Apple continue d’accompagner ses partenaires sur un autre terrain : la transition écologique. Son objectif est une chaîne d’approvisionnement 100 % neutre en carbone d’ici 2030. Pour ce faire, elle apporte un soutien financier d’équipements écoénergétiques et de matériaux durables.

Ainsi, si Apple impose l’automatisation, elle n’abandonne pas totalement ses fournisseurs en matière de responsabilité environnementale.

Plus de fiabilité, mais à quel prix ?

En poussant à l’automatisation, Apple cherche à rendre ses produits plus fiables, homogènes et résistants aux aléas mondiaux. Toutefois, en faisant peser l’intégralité des coûts sur ses fournisseurs, la firme s’expose à des critiques.

Pour les consommateurs, un iPhone construit par des robots pourrait rimer avec moins de défauts et plus de régularité. Mais du côté industriel, cette stratégie risque d’accentuer la pression financière sur les partenaires, alors qu’Apple reste l’une des entreprises les plus riches du monde.

Lire plus
Robotique

Après le métaverse, la robotique : Meta va-t-elle écrire le code des robots de demain ?

Après le métaverse, la robotique : Meta va-t-elle écrire le code des robots de demain ?

Meta fait un nouveau pari audacieux sur l’avenir : après la réalité augmentée et le métaverse, le groupe se lance dans la robotique humanoïde, avec une ambition qui dépasse largement la simple construction de machines.

Le véritable objectif ? Créer le système d’exploitation des robots du futur.

Un logiciel universel pour robots, pas juste un Metabot

Depuis le début de l’année 2025, Meta a entamé ce qu’il appelle un « effort de recherche » en robotique. Oui, un robot humanoïde — surnommé en interne « Metabot » — est en développement, mais ce n’est pas le cœur du projet.

Andrew Bosworth, directeur technique (CTO) de Meta, l’explique clairement : « Le vrai défi, ce n’est pas le hardware. Il est difficile, mais ce n’est pas le goulet d’étranglement. C’est le logiciel ».

L’idée de Meta est simple (et ambitieuse) : développer un « modèle logiciel universel », que d’autres fabricants pourraient utiliser, un peu comme Google avec Android. En clair, Meta veut fournir le cerveau, pas forcément le corps.

Vers un « modèle du monde » pour les robots

Pour concrétiser cette vision, les équipes de Meta collaborent avec le Superintelligence AI Lab, un pôle dédié à l’IA avancée. Ensemble, ils travaillent sur un « world model », un simulateur du monde réel conçu pour :

  • Apprendre à un robot à manipuler des objets complexes
  • Simuler des tâches comme prendre un verre d’eau ou sortir des clés d’une poche
  • Dépasser les limites actuelles des capteurs robotiques

Ces gestes simples pour un humain sont parmi les plus complexes à reproduire pour une machine, notamment en raison de l’instabilité des objets ou de la dextérité requise.

Un investissement à la hauteur de l’enjeu

Meta ne fait pas les choses à moitié. Le groupe a déjà injecté plus de 100 milliards de dollars dans sa division Reality Labs, à l’origine des lunettes connectées Ray-Ban Meta Display ou du projet Orion.

Côté IA, l’investissement est tout aussi massif : 14,3 milliards de dollars ont été investis dans Scale AI, au cœur des travaux du Superintelligence Lab.

Meta ne cherche pas (encore) à commercialiser un robot grand public. Sa stratégie vise à dominer l’infrastructure logicielle de la robotique, comme l’entreprise l’a déjà tenté avec les casques VR, les lunettes connectées et bien sûr les plateformes sociales.

Meta veut écrire le code du futur

Ce nouveau projet marque une étape stratégique majeure pour Meta, qui veut devenir le standard logiciel des robots humanoïdes, bien avant que ceux-ci n’envahissent nos foyers.

Une vision à long terme, qui pourrait bien placer Meta au centre de la prochaine révolution technologique : celle des machines capables d’interagir avec le monde… comme un humain.

Lire plus
Robotique

Pékin lance les premiers Jeux mondiaux des Robots humanoïdes : sport, IA et défis réels

Pékin lance les premiers Jeux mondiaux des Robots humanoïdes : sport, IA et défis réels

L’IA et les Large Language Model (LLM) ont déjà révolutionné nos smartphones, ordinateurs portables et appareils connectés. Mais c’est dans la robotique humanoïde que ces technologies montrent toute leur puissance.

En août 2025, cette révolution entre sur la scène mondiale avec un événement inédit : les premiers Jeux mondiaux des Robots humanoïdes, organisés à Pékin du 15 au 17 août.

Un lieu mythique transformé en arène high-tech

L’événement se déroule au National Speed Skating Oval, surnommé The Ice Ribbon, célèbre pour avoir accueilli les épreuves de patinage de vitesse lors des JO d’hiver 2022. Pour l’occasion, l’enceinte a été transformée en véritable stade de compétition robotique, intégrant :

  • Des zones de maintenance et de recharge dédiées.
  • Un réseau 5G-A optimisé pour les communications en temps réel.
  • Des espaces de contrôle à distance pour piloter les robots en toute sécurité.

26 disciplines, 487 épreuves et 280 équipes du monde entier

Organisés par le gouvernement municipal de Pékin, China Media Group et la World Robot Cooperation Organization, ces Jeux rassemblent 280 équipes issues de 16 pays.

Les compétitions se déclinent en quatre zones principales :

  1. Piste de sprint élargie à 2,1 m pour les courses de robots.
  2. Terrain de football robotisé 5v5.
  3. Ring de boxe pour affrontements mécaniques.
  4. Espaces thématiques (hôpital, hôtel, entrepôt, usine) pour évaluer les compétences professionnelles.

Robots au travail : de l’hôpital à l’hôtel

Ces épreuves vont bien au-delà du sport. Elles testent l’efficacité des robots dans des scénarios réels :

  • Défis hospitaliers : trier et emballer des médicaments selon une prescription.
  • Nettoyage hôtelier : localiser des déchets dans une chambre et les éliminer.
  • Logistique industrielle : tri en entrepôt et manipulation de matériaux en usine.

Les équipes peuvent choisir entre opération totalement autonome (IA et vision par ordinateur) ou télé-opération (pilotage humain à distance).

image 4

Un plateau mondial de compétiteurs

La Chine aligne ses champions technologiques : Yushu Technology, Xinghaitu, Tiangong, Fourier… mais aussi ses universités de pointe, comme Tsinghua, Pékin et Shanghai Jiao Tong. Des équipes venues des États-Unis, d’Allemagne et d’autres pays complètent le tableau.

Certaines entreprises, comme Xinghaitu (soutenue par Meituan), fournissent même leurs modèles universels R1Pro et R1Lite à plusieurs équipes.

Ces Jeux ne sont pas qu’un spectacle : ils servent aussi de vitrine mondiale pour la robotique humanoïde, avec des applications directes dans la santé, l’hôtellerie et la logistique. À l’heure où les IA conversationnelles et la vision par ordinateur progressent à vitesse record, cet événement pourrait accélérer l’adoption commerciale de ces machines dans nos environnements quotidiens.

Lire plus
Robotique

Apple prépare des robots, un écran connecté et un Siri boosté à l’IA pour 2027

Apple prépare des robots, un écran connecté et un Siri boosté à l’IA pour 2027

Apple semble vouloir frapper fort dans le domaine de l’intelligence artificielle à la maison. Selon un rapport exclusif de Bloomberg, la firme de Cupertino développe actuellement plusieurs produits inédits : des robots pour la maison, un écran connecté façon Google Nest Hub, et une version complètement revue de Siri, cette fois alimentée par des Large Language Model (LLM).

Un robot de table digne d’un Pixar

Le projet le plus marquant serait un robot de table ressemblant à un iPad monté sur un bras articulé, capable de suivre les mouvements d’un utilisateur dans la pièce. Apple a déjà montré un aperçu de ce concept plus tôt cette année, dans une recherche où le robot évoquait… la célèbre lampe du logo Pixar.

En plus de pouvoir interagir, ce robot pourrait danser ou se déplacer pour garder un contact visuel avec l’utilisateur. Son lancement serait prévu pour 2027.

Un Siri plus visuel et plus intelligent

Ce robot intégrerait un Siri repensé avec une interface visuelle animée (Finder animé, Memoji ou autre avatar interactif), offrirait des conversations naturelles, proches de ce que propose le mode vocal de ChatGPT, et disposera d’une IA générative alimentée par un LLM pour comprendre et répondre de façon plus fluide.

Apple aurait d’ailleurs retardé certaines mises à jour de Siri cette année pour mieux intégrer ces avancées.

D’autres robots et projets domotiques en préparation

En plus du robot de table, Apple travaillerait sur :

  • Un robot mobile à roulettes, à la manière de l’Amazon Astro.
  • Des discussions exploratoires sur des robots humanoïdes.

Un écran connecté dès 2026

D’ici mi 2026, Apple prévoit de lancer un écran intelligent pour la maison, permettant de contrôler ses objets connectés, de passer des appels vidéo, lire de la musique et prendre des notes.

Cet écran, au format carré et proche d’un Google Nest Hub, pourrait utiliser une reconnaissance faciale pour afficher un contenu personnalisé à chaque membre du foyer.

De la sécurité domestique dans la ligne de mire

Apple préparerait également une caméra de sécurité et toute une gamme de produits hardware et software dédiés à la sécurité domestique, signe que la marque vise un écosystème complet pour la maison connectée.

Avec ces projets, Apple entend combler son retard sur l’IA générative tout en misant sur l’intégration matérielle + logicielle qui a toujours fait sa force. Si la firme réussit son pari, 2027 pourrait marquer l’arrivée d’Apple comme acteur majeur de la robotique domestique.

Lire plus
Robotique

Amazon veut livrer vos colis avec des robots humanoïdes

2019 0510 Ford Agility Robot 1

Amazon ne cesse de repousser les limites de l’automatisation. Selon une enquête du média The Information, le géant américain du commerce en ligne travaille activement sur une nouvelle génération de robots humanoïdes capables de livrer des colis… directement à votre porte. Une technologie qui pourrait transformer le visage de la logistique dans les prochaines années.

Au cœur de ce projet futuriste se trouve un centre d’entraînement indoor en cours de finalisation dans les bureaux d’Amazon à San Francisco. Surnommé « Humanoid Park » en interne, ce site — d’une superficie équivalente à un petit café — inclut un véhicule électrique Rivian, le modèle de van déjà utilisé par Amazon pour ses livraisons.

L’objectif ? Entraîner les robots humanoïdes à embarquer dans les vans électriques, puis à en sortir pour effectuer la livraison d’un colis comme le ferait un humain. Ce concept n’est pas nouveau sur le papier, mais Amazon semble plus proche que jamais de sa concrétisation.

Amazon : Une boucle logistique entièrement automatisée

Amazon ne cache pas ses ambitions : automatiser la chaîne logistique de bout en bout, depuis l’entrepôt jusqu’au pas de votre porte. L’acquisition de Zoox, une entreprise spécialisée dans les robotaxis, en 2020, s’inscrit dans cette vision. Avec des véhicules autonomes, des entrepôts robotisés, et maintenant des livreurs humanoïdes, Amazon pourrait se passer complètement d’intervention humaine à l’avenir.

Dans ses entrepôts, la firme utilise déjà une large flotte de robots autonomes pour le tri, le transport interne et la préparation des commandes. L’arrivée de robots humanoïdes ne serait donc qu’un prolongement naturel de cette stratégie.

Des robots « intelligents » grâce à l’IA générative

Pour aller plus loin, Amazon vient de créer une nouvelle équipe d’intelligence artificielle baptisée Agentic AI Team. Leur mission : concevoir une IA capable de comprendre et exécuter des commandes en langage naturel, rendant les robots bien plus autonomes et polyvalents.

Contrairement aux systèmes robotiques rigides actuels, Amazon veut développer des assistants logistiques multi-tâches, qui sauront s’adapter à différents scénarios de livraison et d’interaction humaine. Imaginez un robot capable d’éviter un chien sur le pas de la porte, de frapper, de répondre à une consigne vocale, ou même de naviguer dans une cage d’escalier étroite.

Une phase de test en conditions réelles imminente

Parmi les robots en test figurent plusieurs modèles, dont certains développés par des entreprises spécialisées, comme Agility Robotics, avec son robot humanoïde Digit, ou encore le robot Unitree, fabriqué en Chine, vendu autour de 16 000 dollars.

Ces tests devraient rapidement sortir du laboratoire. Selon les sources proches du dossier, Amazon compte commencer des essais en conditions réelles dans les prochains mois. À terme, des livraisons pilotes par robot humanoïde pourraient être lancées dans certaines zones urbaines.

Avec plusieurs centaines de milliers de personnes employées dans la logistique chez Amazon, l’automatisation soulève naturellement des questions sociales majeures. Si les robots humanoïdes deviennent capables d’effectuer des livraisons à grande échelle, cela pourrait entraîner une transformation radicale — voire une disparition — de certains métiers.

Amazon n’a pour l’instant donné aucun calendrier précis ni confirmé de déploiement massif. Mais, entre ses ambitions technologiques et les premiers tests concrets, la transition vers une logistique automatisée est bel et bien amorcée.

Vers une livraison autonome de bout en bout

Avec ce projet de livraison robotisée, Amazon franchit une nouvelle étape dans sa quête de productivité et de réduction des coûts. En s’appuyant sur l’intelligence artificielle, les véhicules autonomes et les robots humanoïdes, le géant du e-commerce pourrait devenir le premier acteur à proposer une chaîne logistique entièrement automatisée.

L’avenir nous dira si cette promesse technologique saura répondre aux défis du dernier kilomètre, mais une chose est sûre : les robots humanoïdes ne sont plus de la science-fiction chez Amazon.

Lire plus