fermer
Couverture MWC  2026

Robotique

Découvrez l’actualité et les grandes évolutions de la robotique, des robots industriels aux humanoïdes, en passant par les robots domestiques, médicaux et collaboratifs. Cette catégorie explore les avancées technologiques, l’intelligence artificielle embarquée, les usages concrets et les enjeux économiques et sociétaux liés à l’automatisation.

Analyses, innovations, démonstrations marquantes et perspectives d’avenir : la robotique s’impose comme un pilier majeur des technologies de demain, au croisement du hardware, du logiciel et de l’IA.

Robotique

MWC 2026 : Samsung annonce le passage à la production autonome d’ici 2030

MWC 2026 : Samsung annonce le passage à la production autonome d'ici 2030

Samsung vient d’annoncer un objectif qui ressemble à une bascule industrielle : transformer l’ensemble de ses sites de production mondiaux en « usines pilotées par l’IA » d’ici 2030. On ne parle plus d’automatisation classique, mais de systèmes capables de décider, d’optimiser et d’agir dans un environnement réel — avec des robots, y compris humanoïdes, comme bras exécutifs.

Le terme est le même, mais le terrain change radicalement. Samsung explique vouloir étendre l’IA agentique à la fabrication : des agents capables de planifier et d’exécuter des tâches pour atteindre des objectifs (qualité, débit, réduction des coûts, gestion des flux).

L’entreprise parle d’un déploiement progressif, conditionné par l’intégration dans des sites très différents (produits, pays, contraintes réglementaires et supply chain).

Ce que Samsung met sur la table : agents IA, digital twins et robots (dont des humanoïdes)

Dans sa feuille de route, Samsung mentionne plusieurs briques structurantes :

  • Digital twins et simulation sur tout le parcours industriel (de l’entreposage matière à l’expédition)
  • Agents IA dédiés au contrôle qualité, à la production et à la logistique
  • Robots industriels en trois familles : exploitation/maintenance des lignes, logistique interne, et assemblage de précision

Et oui, Samsung évoque aussi des robots humanoïdes pour les opérations complexes où la dextérité et la flexibilité « type humain » restent utiles.

Samsung a préparé le terrain côté robotique en devenant le plus grand actionnaire de Rainbow Robotics (passage à 35 % annoncé fin 2024), avec l’ambition affichée d’accélérer le développement de robots, dont des humanoïdes.

Parmi les plateformes susceptibles d’entrer dans les usines : le RB-Y1, un humanoïde sur base roulante avec deux bras, présenté par Rainbow Robotics comme une plateforme mobile bi-bras.

L’ambition est claire, mais 2030 se jouera sur la fiabilité (pas sur la démo)

Le pari de Samsung n’est pas seulement technologique, il est économique. Déployer des agents IA « autonomes » dans des dizaines d’usines suppose de résoudre trois problèmes difficiles :

  1. La robustesse : un agent qui « décide » doit être prévisible, auditable, et sûr dans un contexte où l’erreur coûte cher (rebuts, retours, incidents).
  2. L’intégration au legacy : les usines vivent avec des équipements hétérogènes, des ERP/MES existants, des capteurs imparfaits, des données parfois sales.
  3. Le ROI : humanoïdes et agents avancés doivent prouver qu’ils font mieux (ou moins cher) que les automatismes classiques + opérateurs, à grande échelle.

Autrement dit : la vision est spectaculaire, mais la victoire se jouera sur des KPI très prosaïques — taux de défaut, temps de cycle, arrêts de ligne, consommation énergétique, et coûts de maintenance.

Lire plus
Robotique

MWC 2026 : Honor surprend avec un robot humanoïde capable de faire un backflip

MWC 2026 : Honor surprend avec un robot humanoïde capable de faire un backflip

À Barcelone, en amont du MWC 2026, Honor n’a pas seulement présenté des smartphones. La marque a aussi amené sur scène un robot humanoïde capable de danser, serrer des mains… et réussir un backflip, dans une mise en scène pensée pour frapper l’imaginaire.

Derrière le show, l’intention est plus sérieuse : Honor veut s’installer dans l’« IA incarnée », cette IA qui ne se contente plus de répondre, mais agit dans l’espace.

Le robot de Honor comme vitrine d’une stratégie IA plus large

Honor présente ce robot humanoïde comme un jalon de sa vision ALPHA PLAN /« IA incarnée » : relier l’intelligence « personnelle » (ce que le système sait de vos usages) et l’intelligence « edge » (traitement local, contrôle, protection des données), pour des machines capables de comprendre un environnement et d’interagir de façon plus naturelle.

Le choix du MWC n’est pas anodin : c’est l’endroit où l’on vient précisément tester des idées et mesurer la réaction du public, avant de transformer un concept en produit.

HCU9WOdbIAADEim scaled

Les démonstrations rapportées — backflip, moonwalk, danse, poignée de main — ont servi de preuve visuelle de mobilité et de coordination. Mais, comme souvent sur ce type d’annonce, Honor est resté très discret sur l’architecture (autonomie réelle, perception, niveaux d’autonomie, capteurs, sécurité).

À quoi sert ce robot, au-delà du show ?

Honor évoque trois scénarios prioritaires : assistance au shopping, inspections en milieu professionnel, et compagnonnage/assistance.

HCU9WORaMAAoVBR scaled

Ce trio est révélateur. Honor ne vise pas, pour l’instant, le robot « généraliste » à la Tesla. Il vise des cas d’usage où un humanoïde peut apporter une valeur perçue : guider, porter, vérifier, accompagner. Et l’argument différenciant revendiqué, c’est l’ADN smartphone : Honor explique vouloir capitaliser sur sa connaissance des usages et des appareils connectés pour mieux « comprendre l’utilisateur ».

La robotique devient un nouveau terrain de marque

Le plus important, c’est peut-être le signal culturel : les marques de smartphones cherchent un « après ». Après les écrans, après les capteurs photo, après l’IA dans le cloud… vient l’IA, qui se matérialise en objets capables de bouger et d’agir. Le robot humanoïde d’Honor s’inscrit dans ce mouvement, au même titre que son « Robot Phone » et son discours sur l’IA incarnée.

La question clé, désormais : Honor peut-il transformer une démonstration spectaculaire en produit fiable, sûr, et économiquement viable ? C’est là que se jouera la crédibilité.

 

Lire plus
Robotique

Unitree As2 : Le robot-chien qui court à 17 km/h et joue au tennis débarque

Unitree As2 : Le robot-chien qui court à 17 km/h et joue au tennis débarque

Et si le « meilleur ami de l’homme » devenait électrique ? Le constructeur chinois Unitree Robotics dévoile le Unitree As2, un quadrupède pensé comme un robot-chien grand public : plus léger, plus agile, et surtout taillé pour l’interaction grâce à l’IA.

L’ambition n’est plus seulement industrielle ou académique — elle devient domestique.

Un robot plus mobile, plus endurant, plus « vivant »

Le As2 affiche des chiffres qui le placent au-dessus de la moyenne des robots de loisir :

  • Plus de 4 heures d’autonomie
  • Environ 13 km de portée
  • Vitesse maximale de 18 km/h
  • Poids : 18 kg
  • Certification IP54 (résistance à la poussière et aux éclaboussures)

Unitree insiste aussi sur la stabilité : le robot peut rester en équilibre avec un adulte de 105 kg debout sur son dos. Une démonstration plus spectaculaire qu’utile, mais qui traduit une vraie maîtrise du contrôle moteur.

Screen 2026 02 26 at 20.51.25 scaled

De la locomotion à l’IA « incarnée »

Ce qui distingue le Unitree As2 d’un simple gadget roulant, c’est son positionnement IA. Le robot prend en charge de grands modèles d’IA pour des interactions dites « incarnées » — autrement dit, une intelligence qui ne se limite pas à répondre, mais qui agit dans l’espace.

À bord :

  • Caméra HD frontale
  • Micro et haut-parleur intégrés
  • Modes suivi intelligent et télécommande
  • Système d’éclairage pour les déplacements nocturnes

L’idée est claire : faire du robot non seulement un objet mobile, mais un compagnon capable d’interagir, décider et accompagner.

Le As2 peut aussi accueillir un bras robotique à sept axes en option. Et oui, cela permet — démonstration à l’appui — de lui fixer une raquette de tennis pour quelques échanges improvisés. C’est évidemment plus une vitrine technologique qu’un usage quotidien. Mais, cela souligne la modularité de la plateforme : Unitree ne vend pas juste un « robot chien », mais une base robotique polyvalente.

Un vrai compagnon… ou un gadget premium ?

La communication d’Unitree met en scène le As2 comme un animal de compagnie : promenades, retour vers le propriétaire, posture attentive. Mais, la comparaison a ses limites. Un robot ne salit pas, ne mord pas les chaussures, ne nécessite pas de vétérinaire. En revanche, il ne bave pas, ne développe pas de personnalité spontanée, et ne crée pas le même attachement émotionnel.

La vraie question n’est donc pas « peut-il remplacer un chien ? », mais plutôt : peut-il créer un nouveau type de relation homme-machine ?

Positionnement stratégique : la robotique grand public avance

Unitree a déjà une solide réputation dans la robotique quadrupède professionnelle. Avec le As2, la marque teste clairement un marché plus large : celui du robot personnel interactif, à mi-chemin entre compagnon, outil éducatif et plateforme de développement IA.

Le prix n’a pas encore été annoncé — la marque invite les intéressés à « contacter les ventes » — ce qui laisse présager un ticket encore conséquent.

Mais au-delà du coût, le As2 envoie un signal : la robotique quitte progressivement les labos et les usines pour entrer dans les foyers. Et si 2024–2025 ont été l’année des assistants IA conversationnels, 2026 pourrait marquer l’essor des assistants IA incarnés.

Lire plus
Robotique

Xiaomi-Robotics-0 : Xiaomi open source un modèle VLA pour la robotique et vise le temps réel

Xiaomi-Robotics-0 : Xiaomi open source un modèle VLA pour la robotique et vise le temps réel

Xiaomi a longtemps été le spécialiste du rapport qualité-prix dans le smartphone et la maison connectée. Avec Xiaomi-Robotics-0, la marque joue une partition beaucoup plus ambitieuse : devenir un acteur audible dans la recherche robotique « incarnée », là où les modèles ne se contentent plus de comprendre le monde… mais doivent agir dedans, en temps réel.

Xiaomi-Robotics-0 : relier vision, langage et action sans sacrifier l’un pour l’autre

Xiaomi présente Xiaomi-Robotics-0 comme un modèle Vision-Language-Action (VLA) open-source de 4,7 milliards de paramètres, conçu pour boucler le triptyque robotique : perception → décision → exécution.

Le point intéressant, c’est l’angle revendiqué : beaucoup de VLA perdent une partie de leur « intelligence » multimodale dès qu’ils sont entraînés à l’action (le contrôle moteur « écrase » la compréhension). Xiaomi affirme avoir évité ce piège via une recette d’entraînement et une stratégie de déploiement pensées pour préserver les capacités VLM tout en gagnant en motricité.

Architecture : Mixture-of-Transformers d’un côté, diffusion pour l’action de l’autre

Dans la présentation officielle, Xiaomi décrit une architecture qui sépare les responsabilités :

  • Un cœur vision-langage (VLM/VLM-like) pour interpréter les instructions humaines et raisonner sur la scène (relations spatiales, objets, intentions).
  • Un « Action Expert » basé sur une approche de Diffusion Transformer (DiT), qui génère non pas une action isolée, mais des segments d’actions (« action chunks ») plus fluides et cohérents.

Sur le papier, c’est exactement ce qui manque à beaucoup de démos robotiques : elles sont « intelligentes », mais hachées — comme si le robot réfléchissait à chaque micro-mouvement.

Entraînement et latence : l’obsession du « temps réel »

Xiaomi insiste aussi sur la dimension « système », souvent sous-estimée : en robotique, la latence d’inférence ne fait pas juste perdre du confort, elle peut casser la stabilité.

La marque évoque notamment une exécution asynchrone pour découpler calcul et mouvement (éviter les pauses), et des techniques de stabilisation de séquences (réinjecter des actions précédentes, biais d’attention vers le visuel « présent ») pour garder une trajectoire propre quand l’environnement change.

C’est un message important : Xiaomi ne vend pas seulement un modèle, mais une approche d’intégration « robot-ready ».

Benchmarks : SOTA annoncé… mais l’essentiel sera la reproductibilité

Xiaomi affirme que Xiaomi-Robotics-0 atteint des résultats à l’état de l’art sur des benchmarks robotiques reconnus comme LIBERO, CALVIN et SimplerEnv, face à une trentaine de modèles comparés.

performace scaled

La marque dit aussi l’avoir déployé sur une plateforme bi-bras en réel, avec des tâches « horizon long » comme le pliage de serviette et des manipulations d’objets rigides et flexibles.

Le point à surveiller maintenant n’est pas la performance « titrée », mais est-ce que la communauté peut reproduire les scores ? Quelle est la robustesse hors distribution (nouveaux objets, nouveaux éclairages, nouvelles caméras), ou encore quelles sont les exigences matériel (capteurs, compute, cadence) pour tenir le « temps réel » ?

Parce que c’est là que beaucoup de VLA brillent en simulation… puis s’éteignent au contact du monde.

Pourquoi Xiaomi fait ça maintenant

Ce lancement n’arrive pas dans le vide. Depuis 18 mois, l’industrie pousse une idée : les modèles ne doivent plus seulement « parler », ils doivent opérer — dans un navigateur, un terminal… ou un robot. Le VLA est la version « physique » de ce basculement.

Et, Xiaomi a un intérêt stratégique évident puisqu’elle maîtrise déjà une chaîne hardware très large, elle a une empreinte forte sur les devices « quotidiens », et elle peut, à terme, relier robotique, maison connectée et mobilité dans une même logique d’écosystème.

Autrement dit : l’open-source ici n’est pas qu’un geste académique, c’est aussi un accélérateur d’adoption et un levier de crédibilité. (À condition que le code, les poids, et les pipelines d’éval soient réellement exploitables.)

Xiaomi-Robotics-0 ressemble à une prise de position : Xiaomi ne veut plus seulement optimiser des produits, elle veut contribuer à la couche « intelligence » qui animera des machines. Reste à voir si l’ouverture sera assez complète — et si la communauté validera, chiffres en main, que le « SOTA » tient hors des slides.

Lire plus
Robotique

Tesla Optimus 2027 : Elon Musk promet la vente de son robot au grand public

Tesla Optimus 2027 : Elon Musk promet la vente de son robot au grand public

À Davos, Elon Musk remet une pièce dans la grande promesse Tesla : après la voiture, le robot. Le patron du constructeur affirme désormais viser la vente de Optimus au grand public d’ici la fin 2027 — à condition que le humanoïde atteigne un niveau de fiabilité et de sécurité « très élevé ».

Lors du World Economic Forum (Davos), Elon Musk a évoqué un calendrier en deux temps : montée en puissance en interne (usines Tesla) puis ouverture au public. Axios rapporte la cible « fin 2027 » pour les ventes au grand public, tandis que Reuters souligne aussi que la production — Optimus comme Cybercab — commencera « d’une lenteur insoutenable » avant de s’accélérer.

Cette prudence affichée (« on ne vendra pas juste pour respecter une date ») sert aussi de garde-fou rhétorique : Elon Musk a un historique d’échéances agressives. C’est ce qui rend l’annonce à la fois spectaculaire… et immédiatement discutée.

Où en est Optimus : des tâches simples en usine, et « plus complexes » d’ici fin 2026

Le discours officiel est cohérent : Optimus a déjà été testé sur des tâches basiques dans les usines Tesla, et Musk dit vouloir augmenter la complexité des usages en 2026 pour « préparer » la plateforme. Plusieurs comptes rendus de Davos rapportent cette progression vers des tâches plus complexes d’ici la fin 2026.

En parallèle, Reuters décrit un enjeu très industriel : fabriquer un humanoïde à grande échelle est un monde en soi (nouvelles pièces, nouvelles méthodes, nouvelles chaînes). D’où l’idée d’un démarrage lent et d’une montée en cadence progressive.

Ambition vs réalité : l’autonomie reste le point de friction

L’éléphant dans la pièce, c’est l’écart entre « démo » et « autonomie ». Tesla a déjà été critiqué pour des présentations où des Optimus semblaient impressionnants… tout en étant largement téléopérés (contrôlés à distance) lors d’événements publics. Des sources ont notamment rapporté des éléments indiquant un recours important à l’intervention humaine, et Bloomberg avait également évoqué la téléopération pour certaines capacités lors d’une démonstration.

tesla optimus robot humanoid

Ce point n’invalide pas le projet — beaucoup d’équipes en robotique utilisent la téléopération pour collecter des données et accélérer l’apprentissage — mais il rappelle une vérité brutale : un humanoïde généraliste fiable n’est pas « juste » un modèle IA, c’est un système complet (capteurs, contrôle, dextérité, sécurité, énergie, robustesse) qui doit fonctionner dans un monde imprévisible.

Ce que signifie « vendre au public » en 2027

« Vendre au public » ne veut pas dire « robot domestique universel ». Le scénario le plus réaliste — même si Tesla ne le formule pas ainsi — ressemble à une trajectoire en paliers :

  • 2026 : usages industriels plus riches, mais dans des environnements maîtrisés (usine).
  • 2027 : premières ventes, probablement limitées en volume, sur des tâches encadrées, avec une exigence extrême de sécurité et de fiabilité (et possiblement un cadre réglementaire à inventer).

En somme, Musk vend une vision : des robots « partout », capables d’aider à la maison, et un futur où ils deviendraient plus nombreux que les humains — une projection qu’il a de nouveau évoquée à Davos.

Mais, la réalité du marché, elle, dépendra d’un triptyque très prosaïque : coût, fiabilité, responsabilité. Tant que l’un des trois cloche, l’humanoïde reste un produit de démonstration.

Lire plus
Robotique

OpenAI avance ses pions en robotique : avant l’humanoïde, la stratégie des « bras » et de la donnée

OpenAI avance ses pions en robotique : avant l’humanoïde, la stratégie des « bras » et de la donnée

On attend depuis des années le fameux « moment humanoïde », celui où les robots quittent enfin les labos pour devenir (un peu) banals. Et, si le déclencheur n’était pas un bipède spectaculaire… mais une armée de bras robotisés entraînés patiemment, 24 heures sur 24, sur des gestes du quotidien ?

D’après Business Insider, OpenAI s’est remis sérieusement à la robotique avec un laboratoire discret à San Francisco — une approche méthodique, obsédée par la donnée, qui ressemble beaucoup à ce que l’IA générative a déjà fait au texte.

Selon la source, OpenAI a mis sur pied un labo de robotique à San Francisco en février 2025, depuis quadruplé, et désormais opéré en continu. Environ 100 collecteurs de données y téléopèrent des bras robotisés, épaulés par au moins une douzaine d’ingénieurs robotique — avec un objectif très concret : générer des démonstrations humaines en volume, pour entraîner des modèles capables d’agir dans le monde réel.

Point important : le focus n’est pas (encore) le robot humanoïde complet. OpenAI travaille surtout sur des bras robotisés à coût relativement bas, entraînés à exécuter des tâches domestiques simples, mais révélatrices : manipuler des objets, plier du linge, interagir avec des appareils du quotidien.

GELLO : le contrôleur 3D imprimé qui « mappe » vos mains aux robots

Le moteur de cette collecte s’appelle GELLO, un contrôleur de téléopération imprimé en 3D qui reproduit cinématiquement le bras cible : vous bougez le « petit bras » dans votre main, le robot imite. C’est une idée élégante, presque artisanale, mais redoutablement efficace pour obtenir des démonstrations fluides et intuitives.

Ce détail est moins gadget qu’il n’y paraît : en robotique, le mur n’est pas toujours l’algorithme — c’est la qualité et la diversité des données d’action (prises, trajectoires, erreurs, corrections, gestes ambigus). GELLO a justement été conçu pour réduire le coût et la complexité de cette collecte.

Pourquoi OpenAI commence par des bras, et pourquoi ça a du sens ?

Le choix des bras plutôt que du « full humanoid » est pragmatique :

  • C’est plus contrôlable : moins de degrés de liberté, moins de scénarios de chute, moins de problèmes de locomotion.
  • C’est plus utile tout de suite : la manipulation (prendre, poser, ouvrir, verser) est la brique universelle, celle qui sert autant en maison qu’en entrepôt.
  • C’est scalable : on peut déployer plusieurs postes de téléopération, accumuler des heures de gestes, standardiser des tâches… bref, industrialiser la donnée.

En filigrane, OpenAI semble appliquer une recette déjà connue : « beaucoup de données + modèle généraliste + itérations rapides ». La promesse implicite : une fois la manipulation maîtrisée, le corps (humanoïde) devient « un autre support », pas le vrai problème.

L’ambition est là : un second labo en Californie, et l’ombre de l’humanoïde

Toujours selon Business Insider, OpenAI prévoirait un second labo à Richmond (Californie), signe que l’effort n’est pas un simple prototype interne, mais un chantier qui se structure.

Et pendant qu’OpenAI bâtit ses fondations, le reste du marché accélère : partenariats industriels, annonces de déploiement, tensions sociales autour de l’automatisation. En janvier 2026, Reuters rapporte par exemple les débats chez Hyundai autour de l’introduction d’humanoïdes Boston Dynamics dans la production, et l’intérêt d’acteurs comme Airbus pour des robots humanoïdes en manufacturing.

Autrement dit : le « moment humanoïde » se prépare sur deux fronts — la vitrine (les bipèdes) et l’infrastructure invisible (les données, les modèles, la manipulation). OpenAI, lui, semble avoir choisi de commencer par l’infrastructure.

Si cette trajectoire se confirme, l’événement n’arrivera pas sous la forme d’un robot-star. Il arrivera comme une évidence : un assistant qui sait enfin faire — parce qu’on lui aura appris, geste par geste, à vivre dans notre monde.

Lire plus
Robotique

Apple Home Hub 2026 : La base motorisée qui vous suit du regard dévoilée

Apple Home Hub 2026 : La base motorisée qui vous suit du regard dévoilée

Depuis plus d’un an, le futur « Home Hub » d’Apple flotte entre fantasme domotique et produit fantôme. Mais les dernières fuites dessinent enfin une silhouette cohérente : un petit écran, une base ronde, et — nouveauté — un mécanisme de rotation motorisé, comme si l’objet cherchait littéralement à rester face à vous.

Selon The Information, Apple préparerait un Home Hub « dès ce printemps », avec un appareil décrit comme doté d’un petit écran, de haut-parleurs, et d’une base pivotante robotisée.

Le projet resterait toutefois suffisamment amont pour qu’un changement de trajectoire (ou une annulation) ne soit pas impossible — un classique chez Apple dès qu’il est question de nouvelles catégories.

Le design de cet « Home Hub » : l’ombre assumée de l’iMac G4

Cette base robotisée vient enrichir un design déjà évoqué par Mark Gurman dès octobre 2024 : un appareil qui emprunterait des codes à l’iMac G4 (« lampe »), avec un écran de la taille de deux iPhone côte à côte posés sur une base circulaire.

Autre élément de la même saga : Apple travaillerait en parallèle sur une version plus haut de gamme avec bras robotisé, parfois évoquée autour des 1 000 dollars — plutôt un « robot de table » qu’un simple hub.

À quoi servirait la base pivotante : vous suivre, sans que vous y pensiez

The Information ne détaille pas l’usage de cette base motorisée, mais la logique produit est presque évidente : maintenir l’écran orienté vers l’utilisateur.

Plusieurs fuites antérieures sur le « hub à écran » mentionnent une caméra frontale (FaceTime) et un éventail de capteurs, ce qui ouvrirait la porte à un suivi « doux » de position — utile pour un appel vidéo, une recette en cuisine, ou un contrôle domotique en mouvement dans une pièce.

Le vrai sujet, c’est Siri — et Apple le sait

Ce hub n’a de sens que s’il devient l’interface la plus naturelle de la maison Apple. Et en 2026, l’interface, ce n’est plus seulement un écran : c’est l’IA. À court terme, Bloomberg situe une itération de Siri plus « personnelle » autour d’iOS 26.4, attendue au printemps 2026. À l’étage au-dessus, Gurman décrit une refonte plus radicale : Siri transformé en chatbot (voix + texte), projet « Campos », prévu comme pièce maîtresse d’iOS 27/macOS 27 (plutôt seconde partie de 2026).

Dans ce contexte, un Home Hub « très orienté IA » devient une évidence stratégique : Apple chercherait moins à copier un Echo Show qu’à installer un assistant conversationnel ambiant, toujours disponible, pensé pour piloter HomeKit, FaceTime et les services Apple — avec un objet qui « se tourne vers vous » comme un signe physique d’attention.

La question restera la même qu’à chaque tentative de smart display premium : qu’apporte-t-il que l’iPhone sur le plan de travail ne fait pas déjà ? La réponse d’Apple pourrait tenir en deux mots : présence et continuité. Si l’écran pivote, si Siri comprend mieux, si la domotique devient vraiment proactive… le hub cesse d’être un accessoire. Il devient un « centre de gravité ».

Lire plus
Robotique

Atlas x Gemini : Le robot de Boston Dynamics reçoit enfin son « cerveau » IA avec Google

Atlas x Gemini : Le robot de Boston Dynamics reçoit enfin son « cerveau » IA avec Google

La vraie rupture n’est pas que Atlas marche « comme nous ». C’est qu’il commence à travailler là où tout a été conçu pour des humains : des allées d’entrepôts aux lignes d’assemblage, entre palettes, bacs, outils et imprévus. Au CES 2026, Boston Dynamics — sous l’aile de Hyundai — a présenté un Atlas prêt pour la production, pensé moins pour impressionner que pour durer.

Pendant des années, Atlas a servi de vitrine : agilité, équilibre, acrobaties… une démonstration de ce que la robotique savait faire au sommet de l’état de l’art. La version montrée début janvier à Las Vegas change de ton : elle vise le travail répétitif, pénible ou risqué, en priorité dans l’automobile, la logistique et la manufacture.

Le message — très « Hyundai » — est limpide : l’humanoïde n’est plus un prototype de labo, c’est un pari industriel, intégré à une stratégie de « physical AI » (robotique + données terrain + décision autonome).

Ce qui change vraiment sur le nouvel Atlas (et pourquoi ça compte)

Sur le papier, certaines caractéristiques font immédiatement « robot de terrain » plutôt que « robot de scène » :

  • Capacité de charge annoncée à 50 kg : un seuil symbolique, car il rapproche Atlas des contraintes réelles de manutention (bacs, pièces, kits, outillage).
  • Conception orientée robustesse (usage en environnement industriel, y compris conditions thermiques annoncées de -20 °C à 40 °C).
  • Remplacement autonome de batterie : détail clé, parce que l’automatisation échoue souvent sur des « petites » frictions (arrêts, charge, logistique d’énergie) qui tuent la productivité.
  • Apprentissage accéléré des tâches : Hyundai/Boston Dynamics mettent en avant des tâches « enseignables » en moins d’une journée — un indicateur de déploiement rapide à l’échelle, si tenu en conditions réelles.

Ce n’est pas seulement une liste de spécifications : c’est une déclaration d’intention. Atlas n’est pas là pour « imiter l’humain » ; il est là pour tenir le rythme, sans pause, sans dérive de qualité, dans des workflows existants.

Boston Dynamics Atlas Features

L’IA comme accélérateur : DeepMind, Gemini et l’ambition de l’autonomie utile

L’autre bascule est logicielle. Boston Dynamics et Google DeepMind ont officialisé un partenariat pour intégrer des capacités d’IA « fondation » (notamment autour de Gemini Robotics) et démarrer des recherches communes sur une flotte d’Atlas.

Derrière les formules (« reconnaissance d’objets », « décision en temps réel »), l’enjeu est simple : réduire l’écart entre un robot qui sait bouger et un robot qui sait travailler. Le vrai monde n’est pas un gymnase : c’est un environnement changeant, encombré, parfois mal rangé, avec des exceptions à gérer.

C’est aussi là que se joue la sécurité : des comportements plus prévisibles, une compréhension plus fine des contextes, et des modes d’intervention humaine plus clairs.

Déploiement, travail, sécurité : ce que Hyundai tente de verrouiller

Hyundai annonce une montée en puissance par étapes, avec une première utilisation visée à partir de 2028 (notamment pour du parts sequencing dans son usine américaine en Géorgie), puis une extension vers l’assemblage et d’autres tâches ensuite.

En parallèle, le groupe vise une capacité de production pouvant atteindre 30 000 robots par an d’ici 2028 — un chiffre qui dit « industrie », pas « démo ».

Et le sujet qui fâche arrive vite : l’emploi. Les discours officiels insistent sur l’assistance plutôt que le remplacement, et sur l’émergence de nouveaux rôles (maintenance, formation, supervision). C’est crédible… mais incomplet. Le point de friction sera moins « l’humanoïde remplace l’humain » que la reconfiguration des tâches, des cadences et des exigences de conformité sécurité.

atlas robot ces 2026 factory ready

Car un humanoïde dans une usine, c’est aussi des procédures HSE à réécrire, des zones de coactivité à définir, des responsabilités à tracer (qui valide, qui interrompt, qui audite), et une normalisation qui devra suivre la réalité du terrain.

L’humanoïde cesse d’être une promesse — il devient un produit (donc un débat)

Le nouvel Atlas n’est pas seulement une prouesse : c’est une tentative d’industrialiser l’idée même du robot « généraliste » capable d’évoluer dans nos espaces. S’il réussit, il imposera une nouvelle grammaire du travail — où l’automatisation ne se limite plus aux bras fixes et aux cages, mais circule, manipule et s’adapte.

Et, c’est précisément là que la frontière « humain-machine » commence à se flouter : non pas dans l’apparence, mais dans la place que la machine occupe, au milieu de nous.

Lire plus
Robotique

Zeroth M1, le premier robot humanoïde que vous pourrez vraiment acheter en avril

Zeroth M1, le premier robot humanoïde que vous pourrez vraiment acheter en avril

Au CES 2026, les robots étaient partout — souvent expressifs, parfois maladroits, presque toujours démonstratifs. Zeroth Robotics a choisi une autre tactique : arriver avec cinq noms d’un coup, mais une seule promesse vraiment « achetable » tout de suite. Dans cette vitrine très saturée, le Zeroth M1 se distingue parce qu’il ne se contente pas d’exister en vidéo : il vient avec un prix, une fenêtre de précommande et une date de disponibilité.

Le Zeroth M1 est le seul modèle avec un calendrier clair

Selon la communication de Zeroth et les premiers retours presse, le Zeroth M1 est un petit humanoïde d’environ 49 cm pensé pour des routines quotidiennes : rappels, présence, assistance légère à la maison — avec une cible assumée, les personnes âgées vivant à domicile, mais aussi les parents et les foyers qui veulent « un robot compagnon programmable » au fil du temps.

Zeroth annonce :

  • Précommandes aux États-Unis en Q1 2026, à partir de 2 899 dollars
  • Disponibilité générale prévue en avril 2026

Dans un CES où beaucoup de robots restent des démonstrateurs sans timeline, cette précision raconte déjà une ambition : passer du stand à la maison.

Ce que Zeroth montre à Las Vegas : deux démos, trois « aperçus »

Sur le salon, Zeroth met surtout en avant M1 et W1. Le second est un assistant à roues, très expressif (certains y voient un clin d’œil évident à WALL·E), destiné aux maisons, aux écoles, et à des espaces « à forte interaction » comme le retail ou les parcs à thème — mais sans calendrier d’achat aussi verrouillé que M1 pour l’instant.

videoframe 2505

Les autres robots présentés servent davantage de projection de gamme :

  • A1, un quadrupède orienté recherche/enseignement/ingénierie
  • Jupiter, un humanoïde plus grand, pensé pour l’exécution de tâches « réelles » en combinant autonomie et téléopération.

Le message implicite est clair : Zeroth veut raconter un futur complet — mais ne vend que le chapitre 1, et ce chapitre s’appelle Zeroth M1.

Pourquoi un robot « de routines » a plus de chances qu’un robot « de miracles » ?

Le marché du robot domestique souffre d’un problème chronique : il promet des usages trop larges, puis se heurte au réel (sécurité, fiabilité, navigation, interaction humaine). Au CES 2026, plusieurs observateurs ont pointé un décalage persistant entre la mise en scène et la robustesse (robots qui tombent, tâches ménagères mal exécutées, autonomie floue).

Zeroth tente un positionnement plus prudent : rappels, accompagnement, présence, et une progression par « skills » au fil des mises à jour, plutôt qu’un robot majordome omnipotent dès le premier jour. Cette approche s’aligne avec une tendance visible sur le salon : l’IA quitte l’écran pour devenir compagnon physique, parfois plus relationnel qu’utilitaire.

Et à 2 899 dollars, Zeroth vise une zone psychologique intéressante : assez bas pour ne pas ressembler à un prototype à 15 000 dollars, mais assez haut pour exiger une vraie proposition de valeur — et une vraie transparence sur les limites.

Capacités « day one », sécurité, et promesse logicielle

Entre une fiche marketing et un produit domestique, il y a un fossé : ce que le robot sait faire le premier jour, de manière fiable, sans supervision constante.

Trois points seront décisifs à l’approche des précommandes :

  1. Le niveau d’autonomie réel : le Zeroth M1 est-il un compagnon qui exécute des routines simples, ou une présence pilotée/assistée en coulisses ? La frontière est fine, et le marché devient de plus en plus sensible au « téléopéré déguisé ».
  2. La sécurité et les garde-fous : Un robot à domicile implique mouvement, proximité, enfants, animaux, objets fragiles. Zeroth évoque une « safety stack » et des capacités de perception, mais la crédibilité passera par la manière dont l’entreprise expliquera ce que M1 ne fera pas (zones interdites, forces maximales, comportements d’arrêt, etc.).
  3. La stratégie d’évolutivité : Zeroth promet que M1 « grandira » via mises à jour et nouvelles compétences. C’est séduisant — mais cela demande un écosystème (app, SDK, bibliothèque de comportements, politique de support). Le risque classique des robots grand public, c’est de vendre un futur logiciel qui n’arrive jamais.

Zeroth M1, un achat… ou un pari ?

Le Zeroth M1 est peut-être moins spectaculaire que les humanoïdes industriels, et moins « mème » qu’un robot au look Pixar. Mais, il coche une case rare au CES : il est présenté comme un produit, pas seulement comme une vision.

Reste la vraie question, celle qui sépare la robotique « sympa » de la robotique durable : est-ce que Zeroth livrera en avril un compagnon réellement utile — ou un objet attachant qui vit surtout de promesses logicielles ? Dans cette course, la meilleure démo ne sera pas sur un stand, mais dans un salon, un mardi soir ordinaire.

Lire plus
Robotique

CES 2026 : CLOiD, le robot domestique de LG qui incarne la maison intelligente de demain

CES 2026 : CLOiD, le robot domestique de LG qui incarne la maison intelligente de demain

Chez LG, le CES 2026 n’a pas été présenté comme une simple conférence de presse, mais comme une « World Premiere ». En réalité, rien de fondamentalement inédit sur le papier. Et pourtant, un élément a cristallisé toute l’attention : CLOiD, prototype de robot domestique sur roues, pensé comme l’incarnation physique de la vision de LG pour la maison intelligente de demain.

CLOiD, ou la matérialisation d’un futur longtemps fantasmé

Dévoilé sur la scène du CES 2026, Cloid (ou CLOiD, selon l’orthographe officielle) n’est pas un produit, ni même une promesse commerciale à court terme. Il s’agit d’un manifeste.

Conçu par LG, ce robot domestique reprend presque tous les codes de la science-fiction des années 1950 avec une base roulante massive, des mouvements volontairement lents, des bras très articulés, et des mains… démesurées.

Un design qui semble directement sorti de l’imaginaire des auteurs qui rêvaient d’un futur débarrassé des corvées ménagères — sans toutefois aller jusqu’aux excès de The Jetsons, où même le brossage de dents devenait une tâche robotisée (et légèrement terrifiante).

Une démonstration parfaitement chorégraphiée

La scène était classique, presque attendue. Un dirigeant LG, un robot immobile à côté d’un lave-linge, une serviette humide remise à CLOiD après une averse — malgré un costume parfaitement sec.

La consigne est simple : « Deal with it ». CLOiD saisit le linge, pivote lentement, le lave-linge s’ouvre automatiquement, le robot dépose la serviette, la porte se referme. Fin de la démonstration. Tout est maîtrisé, millimétré, sécurisé. LG n’a clairement pris aucun risque. À ce stade du développement robotique, la moindre défaillance ferait plus de bruit que toutes les promesses réunies.

Mais derrière cette démonstration presque clinique, un message clair se dessine.

CLOiD n’est pas (encore) un robot utile — et ce n’est pas le sujet

Il faut être honnête : CLOiD est extrêmement limité. Il ne peut pas ramasser un objet au sol, se baisser sous le niveau des genoux, et se déplacer rapidement. Ces contraintes sont assumées. La lenteur est pensée comme une mesure de sécurité, pour cohabiter avec enfants et animaux. CLOiD n’est pas là pour impressionner, mais pour rassurer.

Pourtant, la technologie embarquée est loin d’être anodine : caméras, capteurs multiples, écran intégré, haut-parleurs, et surtout une couche complète d’IA générative pour la voix et l’interaction.

Ce n’est pas un robot démonstrateur de performance. C’est un support narratif.

Le vrai message de LG : donner un visage à l’IA domestique

press setting image desktoptable

Ce que LG tente réellement avec CLOiD, ce n’est pas de vendre un robot. C’est de rendre tangible une idée abstraite : celle d’une IA omniprésente dans la maison. Une IA qui apprend vos habitudes, ajuste la climatisation sans intervention manuelle, comprend vos préférences vestimentaires, et adapte la cuisson de vos croissants à votre goût précis.

CLOiD devient alors une interface physique, un symbole rassurant et incarné d’un système invisible. Une façon de faire accepter l’IA non pas comme un logiciel, mais comme une présence.

Des mains géantes… mais une ingénierie très sérieuse

Impossible de ne pas mentionner les mains de CLOiD. Elles sont énormes. Vraiment. Et légèrement inquiétantes. Mais derrière ce design presque grotesque se cache une intention claire : la précision motrice. Les bras disposent d’une amplitude de mouvement impressionnante, et LG a longuement insisté sur le développement de ses propres actuateurs, notamment l’Axium actuator, véritable pièce maîtresse de sa stratégie robotique.

Ce focus révèle beaucoup : LG ne voit pas la robotique comme un gadget marketing, mais comme un axe industriel de long terme, à la croisée de l’électroménager, de l’IA et de la mécatronique avancée.

Au CES 2026, LG ne promet pas — il symbolise

Cette année à Las Vegas, toutes les grandes marques veulent être perçues comme leaders en IA et en robotique. Beaucoup parlent de puissance, de benchmarks, de performances spectaculaires. LG, lui, a fait autre chose. Il a donné un visage à sa vision.

CLOiD n’est pas impressionnant par ce qu’il fait, mais par ce qu’il représente. Il ne nettoie pas, ne cuisine pas, ne range pas votre maison. Il incarne la transition entre une IA abstraite et un futur domestique où la technologie devient une présence familière.

À ce stade, CLOiD est lent, imparfait, limité. Mais comme souvent avec les prototypes marquants, ce n’est pas sa version actuelle qui compte — c’est la direction qu’il indique. Et au CES 2026, LG a clairement pointé vers l’avenir.

Lire plus
Robotique

LG CLOiD : Le majordome robotique qui plie votre linge arrive au CES 2026

LG CLOiD : Le majordome robotique qui plie votre linge arrive au CES 2026

LG avait promis un aperçu d’un futur foyer à « zéro corvée » lors du CES 2026. On en sait désormais un peu plus sur la vision très ambitieuse du constructeur. Son nouveau robot domestique, baptisé CLOiD, est conçu pour prendre en charge une partie significative des tâches quotidiennes : aller chercher du lait dans le réfrigérateur, mettre un croissant au four, ou encore s’occuper du linge… jusqu’à le plier et l’empiler.

LG CLOiD : Un robot domestique aux capacités étonnamment avancées

CLOiD n’est pas le premier robot capable de plier le linge, et il n’est même pas le seul à proposer cette fonction au CES cette année. Mais sur le papier, la solution de LG se distingue nettement. Là où certains concurrents adoptent un design minimaliste, CLOiD embarque deux bras entièrement articulés, chacun offrant sept degrés de liberté, montés sur un torse capable de s’incliner et de se pencher.

Cette architecture lui permet de manipuler des objets avec une précision bien plus proche de celle d’un humain.

Sa tête, qui rappelle beaucoup celle du robot Q9 de LG (sans la poignée), est conçue pour communiquer à la fois par la voix et par des expressions faciales numériques. Oui, recevoir un regard désapprobateur d’un robot fait officiellement partie du futur.

Un hub domotique… avec des bras

Au-delà de ses capacités mécaniques, CLOiD se positionne comme un véritable centre de contrôle de la maison connectée. Il est compatible avec les plateformes ThinQ et ThinQ ON, ce qui lui permet d’interagir de façon très fluide avec l’écosystème d’appareils LG : électroménager, objets connectés, capteurs et services intelligents.

En pratique, CLOiD agit comme un hub domotique mobile et autonome, capable non seulement de piloter les appareils, mais aussi d’agir physiquement sur eux.

Un majordome robotique… pour qui ?

Reste évidemment la grande question : qui voudra — et pourra — se permettre un tel robot à domicile ? Avoir un assistant mécanique qui se promène librement dans la maison et exécute des ordres ne séduira pas tout le monde, sans parler du prix, encore inconnu, mais probablement élevé.

Avec CLOiD, LG semble néanmoins parier sur un avenir où nous aspirerions tous à un majordome, une aide-ménagère, un chef et même un coach personnel robotisé. Une vision futuriste qui oscille entre fascination technologique et science-fiction… mais qui, chez LG, commence clairement à prendre forme.

Lire plus
Robotique

Miro U : Midea dévoile un humanoïde à 6 bras roulants pour l’industrie

Miro U : Midea dévoile un humanoïde à 6 bras roulants pour l'industrie

Avec Miro U, Midea signe l’une des avancées les plus audacieuses de la robotique moderne : un humanoïde hybride, pensé non pas pour impressionner… mais pour produire.

Le futur de l’automatisation ne ressemble pas à un androïde hollywoodien. Il ressemble à Miro U, le nouveau robot humanoïde présenté par Midea à Guangzhou — un colosse roulant, équipé de six bras bioniques, capable d’effectuer plusieurs tâches simultanément et de se faufiler dans un atelier avec une précision chirurgicale.

Miro U n’est pas une démo de laboratoire. C’est un outil industriel, conçu pour rejoindre les lignes de production dès 2025. Et, il pourrait très vite devenir le standard d’une nouvelle génération de robots polyvalents.

Six bras, roues et rotation à 360° : le premier humanoïde pensé comme une “machine multitâche”

Alors que ses concurrents misent sur des robots bipèdes classiques, Midea prend une autre voie : une plateforme wheel-leg capable d’accélérations rapides, de rotation sur place, et surtout d’une polyvalence inédite grâce à ses six bras modulaires.

En clair, Miro U peut soulever verticalement des pièces, manipuler plusieurs objets à la fois, changer d’outils en quelques secondes, collaborer avec des robots mobiles, et s’insérer dans une production existante sans tout reconfigurer.

Chaque bras embarque un contrôle haute précision et un système d’effecteurs interchangeables. Une approche radicale — loin du fantasme de l’humanoïde généraliste — mais parfaitement alignée avec les besoins réels des usines modernes.

Un robot conçu pour l’usine, pas pour la vitrine

Miro U est la troisième génération de robots humanoïdes industriels développés par Midea. La génération précédente travaille déjà dans l’usine de Jingzhou aux côtés de robots mobiles autonomes (AMR), de robots Kuka, de robots mono-bras, et opérateurs humains.

Une vision claire : des humanoïdes conçus pour s’intégrer, pas remplacer. Miro U, lui, rejoindra l’usine de machines à laver haut de gamme de Wuxi d’ici fin 2025.

Objectif annoncé : +30 % d’efficacité dans les ajustements de la ligne, réduction du takt time, flexibilité accrue dans les changements de production.

Autrement dit : un robot qui fait gagner de l’argent, pas seulement des applaudissements.

Midea unveils Miro U 1

Midea ne construit pas des robots, Midea construit une plateforme

Wei Chang, VP et CTO, l’a confirmé : Midea maîtrise tout le stack technologique, du hardware à l’IA.

Deux gammes avancent en parallèle :

Miro — Robots humanoïdes industriels

  • Trois générations déjà bouclées
  • Miro U comme modèle le plus avancé
  • Optimisation du travail en usine

Mila — Robots humanoïdes “grand public”

  • Destinés aux magasins, commerces, domiciles
  • En phase finale de test
  • Déploiement prévu en 2026 dans les experience stores de Midea.(consignes clients, démonstrations interactives, orientation)

Midea cherche clairement à devenir un acteur massif de la robotique, du foyer à l’usine.

Une course technologique qui s’accélère

Miro U arrive dans un contexte où la robotique humanoïde connaît une effervescence inédite. Unitree a dévoilé son premier humanoïde sur roues avec vision avancée et apprentissage autonome, tandis que Dobot lance un robot-chien à 1 000 dollars, l’un des plus sophistiqués jamais vendus au grand public, et que Tesla, Figure, Fourier poursuivent leurs humanoïdes bipèdes.

Mais, Midea adopte une stratégie singulière :
le volume avant le spectacle. Ses robots ne défilent pas sur scène : ils entrent dans une usine, prennent un tournevis… et travaillent huit heures d’affilée.

Miro U n’est pas une preuve de concept. C’est une brique dans un plan d’automatisation à long terme, clairement assumé par Midea. Et s’il tient ses promesses, l’humanoïde multitâche pourrait devenir la nouvelle norme dans les usines — plus flexible que les bras fixes, moins fragile que les bipèdes, plus rentable que les chaînes hyper-spécialisées.

Le futur du travail industriel pourrait bien avoir six bras… et deux roues.

Lire plus
Robotique

Xpeng Motors va lancer la production en série du robot humanoïde IRON fin 2026

Xpeng Motors va lancer la production en série du robot humanoïde IRON fin 2026

Le constructeur automobile chinois Xpeng Motors vient d’annoncer un virage stratégique majeur : la production en série de robots humanoïdes avancés d’ici fin 2026.

Présenté lors du Xpeng Tech Day 2025, le robot IRON incarne l’ambition du groupe d’étendre son savoir-faire au-delà des véhicules électriques pour devenir un leader mondial de la robotique et de l’intelligence artificielle.

Présentation du robot IRON : « le plus humain de l’industrie »

Le Xpeng IRON se distingue par 60 articulations et 200 degrés de liberté, une taille de 1,73 m pour 70 kg, une batterie entièrement à l’état solide, et une puce d’IA propriétaire développée en interne.

Selon TechNode, ces caractéristiques permettent à IRON d’imiter les mouvements et expressions humaines avec un réalisme inédit.

Le PDG He Xiaopeng a insisté sur la philosophie du projet : « Nous avons intégré dans IRON toute notre expertise en capteurs, en IA et en conception, pour créer un robot capable d’interagir naturellement avec son environnement ».

Technologies clés : batteries solides et puces maison

Deux innovations majeures propulsent ce projet :

  1. Les batteries solides, plus légères et sûres que les batteries lithium-ion classiques, ouvrent de nouvelles perspectives pour la robotique mobile.
  2. La puce Turing, développée par Xpeng, offre une puissance de calcul de 3 000 TOPS — essentielle pour la perception, le mouvement et les interactions autonomes.

Ces composants sont issus des technologies déjà employées dans les véhicules électriques de la marque, notamment les modèles P7 et G9, renforçant la cohérence du « Xpeng AI Ecosystem ».

xpeng iron smp

Cap sur la production de masse fin 2026

Xpeng prévoit une production pilote dès le premier semestre 2026, avant une montée en cadence dans la seconde moitié de l’année. L’entreprise mise sur une approche progressive, avec des déploiements initiaux dans des environnements commerciaux et industriels — entrepôts, robotaxis, services automatisés — avant une éventuelle utilisation domestique.

Cette stratégie vise à assurer la fiabilité et la rentabilité du produit avant sa généralisation.

Un plan global : véhicules autonomes, robotaxis et humanoïdes

Le lancement du robot IRON s’inscrit dans une stratégie à quatre piliers définie par He Xiaopeng :

  1. Robots humanoïdes,
  2. Véhicules autonomes de niveau L4,
  3. Robotaxis,
  4. Puce IA Turing de nouvelle génération.

Dès 2026, Xpeng prévoit le déploiement de trois modèles de robotaxis à Guangzhou, exploitant la même base technologique qu’IRON pour la perception et la navigation.

Une course mondiale face à Tesla et Xiaomi

Cette annonce alimente la course mondiale à la robotique humanoïde. Xpeng rejoint ainsi Tesla (avec son robot Optimus), Xiaomi, et BYD, qui développent eux aussi leurs propres solutions robotiques.

Le Financial Times souligne que la maîtrise des batteries solides pourrait offrir à Xpeng un avantage concurrentiel décisif dans ce nouveau marché.

Malgré son enthousiasme, Xpeng devra surmonter plusieurs défis :

  • Réglementation floue autour des humanoïdes,
  • Coûts élevés de production et d’entretien,
  • Fiabilité et sécurité en milieu humain.

Mais l’entreprise estime que la combinaison de ses technologies automobiles, robotiques et IA pourrait transformer le secteur industriel chinois — et, à terme, l’économie mondiale.

Avec IRON, Xpeng ne se contente plus d’être un constructeur automobile, mais devient un acteur majeur de la révolution humanoïde — un pari ambitieux qui pourrait, d’ici 2026, redéfinir l’équilibre du marché mondial entre mobilité autonome et robotique intelligente.

Lire plus
Robotique

Arduino Uno Q : Le nouveau « cerveau » double processeur qui révolutionne l’IA et la robotique embarquée

Et si une seule carte pouvait combler le fossé entre la facilité d’accès des débutants et la puissance recherchée par les professionnels ? C’est précisément la promesse de la Arduino Uno Q, une nouvelle génération de carte de développement dotée d’une architecture double processeur. Présentée lors de l’annonce d’acquisition de Arduino par Qualcomm, la Uno Q ne se contente pas d’être polyvalente : elle offre une synergie parfaite entre calcul haute performance et contrôle en temps réel.

Imaginez pouvoir créer un dispositif IoT capable de collecter et d’analyser des données complexes tout en réagissant à son environnement en une fraction de seconde.

Que vous soyez maker débutant ou ingénieur confirmé, la Uno Q redéfinit les limites du prototypage, de la robotique et de l’IA embarquée.

Un matériel qui combine puissance et précision

Au cœur de la Arduino Uno Q se trouve une alliance inédite :

  • Processeur Qualcomm Dragonwing QRB2210 (ARM Cortex-A53) — Fonctionnant sous Linux, elle offre la puissance nécessaire pour exécuter des scripts Python, gérer des modèles d’intelligence artificielle ou encore effectuer des tâches de vision par ordinateur.
  • Microcontrôleur STM32U585 (ARM Cortex-M33) — Optimisé pour le contrôle en temps réel et la basse consommation, il tourne sous Zephyr OS et gère les interactions matérielles avec une précision extrême.

Cette architecture double permet une collaboration fluide entre les deux processeurs : le premier s’occupe du calcul intensif (inférence IA, traitement d’images), pendant que le second pilote capteurs et actionneurs en temps réel.

Autres caractéristiques techniques

  • 2 Go de RAM LPDDR4 + 16 Go de stockage eMMC intégré
  • Wi-Fi 5 double bande (2,4/5 GHz) et Bluetooth 5.1
  • Port USB-C : alimentation, transfert de données et sortie vidéo
  • Connecteurs UNO classiques compatibles avec les shields Arduino
  • Matrice de LED 8×13 intégrée pour l’affichage ou le prototypage visuel
  • Connecteur Qwiic pour extensions modulaires sans soudure

Logiciel : la rencontre entre Linux et Zephyr

La Arduino Uno Q combine deux environnements complémentaires :

  • Linux, pour le développement d’applications complexes et l’exécution de scripts haut niveau ;
  • Zephyr OS, pour la gestion du matériel en temps réel.

Les développeurs peuvent utiliser :

  • Le Arduino IDE ou AppLab pour coder des projets classiques ;
  • Python pour l’automatisation, l’IA ou la science des données ;
  • des modules IA embarqués pour des projets de Edge Computing.

Cette flexibilité unique simplifie la création de systèmes complets où collecte, traitement et action fonctionnent de concert.

Démonstration pratique : affichage météo intelligent

Un exemple concret illustre bien le potentiel de la carte : le processeur sous Linux récupère des données météo en temps réel via une API, tandis que le microcontrôleur sous Zephyr pilote une matrice LED pour afficher la température et l’humidité.

Ce travail d’équipe montre comment la Uno Q excelle dans les projets IoT, où il faut combiner analyse de données et réactivité matérielle instantanée.

Fiche technique de la Uno Q

Composant Spécification
Processeur principal (MPU) Qualcomm® Dragonwing™ QRB2210 (ARM Cortex-A53)
Microcontrôleur (MCU) STM32U585 (ARM Cortex-M33)
RAM/Stockage 2 Go LPDDR4/16 Go eMMC
Connectivité Wi-Fi 5, Bluetooth 5.1
I/O GPIO, UART, I2C, SPI, connecteurs UNO & Qwiic
Affichage intégré Matrice LED 8 × 13
Alimentation et ports USB-C (Power Delivery, vidéo, données)
Systèmes d’exploitation Linux + Zephyr OS

Domaines d’application

  • IA embarquée (Edge AI) : exécution locale de modèles de reconnaissance d’images ou d’analyse prédictive.
  • Robotique : contrôle précis de moteurs et capteurs avec calculs complexes pour la navigation ou la détection d’objets.
  • IoT: développement d’objets connectés capables de traiter et transmettre des données intelligemment.
  • Vision artificielle : détection et suivi d’objets en temps réel pour la sécurité ou les véhicules autonomes.
  • Éducation et interfaces interactives : création d’affichages dynamiques et outils pédagogiques.

Une révolution pour les makers et les pros

Avec son architecture double, sa compatibilité Linux + Zephyr et son écosystème logiciel ouvert, la Arduino Uno Q s’impose comme une plateforme de développement inédite. Ce n’est pas seulement une nouvelle carte Arduino — c’est une passerelle entre l’apprentissage et la recherche avancée, entre le prototypage rapide et la production intelligente.

Vendue moins de 50 euros, la Uno Q, c’est la simplicité Arduino au service de la puissance du calcul embarqué.

Lire plus
Robotique

Apple exige l’automatisation de ses usines : iPhone et Mac bientôt 100 % robotisés ?

Apple exige l’automatisation de ses usines : iPhone et Mac bientôt 100 % robotisés ?

Selon un rapport de DigiTimes, Apple accélère l’intégration de la robotisation et de l’automatisation dans sa chaîne d’approvisionnement.

Le géant californien exigerait désormais que l’automatisation devienne un critère obligatoire pour obtenir un contrat de fabrication, couvrant l’ensemble de ses produits : iPhone, iPad, Mac et Apple Watch.

Un changement stratégique dans la production Apple

Jusqu’à présent, Apple participait souvent au financement des machines et outils pour ses partenaires afin de garantir la qualité de production. Désormais, le groupe de Cupertino demanderait à ses fournisseurs de financer eux-mêmes leurs investissements en robotique et automatisation.

L’objectif serait triple :

  • réduire la dépendance à la main-d’œuvre humaine,
  • assurer une qualité homogène dans les usines réparties à travers le monde,
  • mieux maîtriser les coûts dans un contexte économique incertain.

Des coûts lourds pour les fournisseurs

Si l’automatisation peut améliorer la consistance des produits et limiter les risques liés aux pénuries de main-d’œuvre ou aux tensions géopolitiques, elle représente aussi un investissement colossal.

De nombreux partenaires de la marque auraient déjà vu leurs profits impactés par la mise en place de robots industriels et de systèmes automatisés. Certains auraient même connu des perturbations dans leur production durant la transition.

Apple maintient ses objectifs environnementaux

En parallèle, Apple continue d’accompagner ses partenaires sur un autre terrain : la transition écologique. Son objectif est une chaîne d’approvisionnement 100 % neutre en carbone d’ici 2030. Pour ce faire, elle apporte un soutien financier d’équipements écoénergétiques et de matériaux durables.

Ainsi, si Apple impose l’automatisation, elle n’abandonne pas totalement ses fournisseurs en matière de responsabilité environnementale.

Plus de fiabilité, mais à quel prix ?

En poussant à l’automatisation, Apple cherche à rendre ses produits plus fiables, homogènes et résistants aux aléas mondiaux. Toutefois, en faisant peser l’intégralité des coûts sur ses fournisseurs, la firme s’expose à des critiques.

Pour les consommateurs, un iPhone construit par des robots pourrait rimer avec moins de défauts et plus de régularité. Mais du côté industriel, cette stratégie risque d’accentuer la pression financière sur les partenaires, alors qu’Apple reste l’une des entreprises les plus riches du monde.

Lire plus