Paris, le 19 mars 2026 – Universal Robots (UR), pionnier de la robotique collaborative (cobotique) et
partie intégrante de Teradyne Robotics, dévoile à la GTC 2026 l’UR AI Trainer. Développé en
collaboration avec Scale AI, l’AI Trainer marque un tournant décisif en faisant passer les robots
d’applications préprogrammées à des tâches entièrement pilotées par l’intelligence artificielle. Ces
systèmes robotiques s’appuient sur des données fiables générées dans des cellules d’entraînement
d’IA où les robots imitent les humains.
« Nos clients, qui vont des grandes entreprises aux laboratoires de recherche en IA, ne se contentent
plus de demander des fonctionnalités d’IA », précise Anders Beck, VP of AI Robotics Products chez
Universal Robots. « Ils recherchent un moyen de collecter des données fiables et synchronisées de
robotique et de vision pour former des modèles d’IA sur les mêmes robots qu’ils comptent déployer.
Notre AI Trainer est la première solution du secteur permettant de passer directement du laboratoire à
l’usine pour la formation de modèles d’intelligence artificielle ».
Outre le nouvel AI Trainer, le stand d’Universal Robots à la GTC présentera un modèle de fondation
robotique développé par Generalist AI, partenaire privilégié d’Universal Robots. Grâce à lui, deux
robots UR réaliseront une tâche complexe d’emballage de smartphones, ce qui était auparavant
impossible sans les récentes avancées dans le domaine de l’IA physique.
Permettre la collecte de données compatibles avec l’IA grâce au retour de force et au contrôle direct
du couple
La formation des robots dotés d’IA est souvent freinée par un matériel fragmenté et une collecte de
données de faible qualité. Une grande partie des données d’entraînement actuelles est recueillie sur
des robots de recherche qui ne sont pas adaptés aux environnements de production, et la plupart des
systèmes s’appuie uniquement sur un retour visuel. Les tâches délicates ou nécessitant de nombreux
contacts deviennent par conséquent difficiles à réaliser.
« L’AI Trainer s’attaque directement à ces obstacles », poursuit Anders Beck. « En utilisant nos
fonctionnalités uniques de contrôle direct du couple et de retour de force, nous donnons aux
développeurs une influence directe sur la manière dont le robot interagit physiquement avec le monde.
Pour ce faire, nous nous appuyons sur la robustesse de nos cobots, déjà déployés à plus de 100 000
reprises dans le monde ».
Un partenariat avec Scale AI pour la création d’un cercle vertueux de données robotiques intégrées
L’AI Trainer permet aux opérateurs de guider les robots UR dans l’exécution de tâches selon une
configuration « leader-suiveur », tout en capturant automatiquement des données multimodales de
haute qualité, destinées au développement de l’IA robotique. Les opérateurs guident physiquement
un robot « leader » tout au long d’une tâche tandis qu’un robot « suiveur » synchronisé reproduit le
mouvement en temps réel. Au cours de chaque démonstration, le système enregistre les données
synchronisées relatives au mouvement, à la force et à la vision, produisant ainsi les ensembles de
données structurés nécessaires à l’entraînement du modèle « Vision-Language-Action » (VLA).
Déployé sur le kit d’outils AI Accelerator d’Universal Robots, l’AI Trainer combine les robots UR avec le
logiciel Scale AI pour permettre la capture de données à grande échelle sur les robots en production,
créant ainsi un retour d’informations continu qui favorise l’optimisation perpétuelle des systèmes d’IA
physique.
« Universal Robots est un acteur majeur de la robotique industrielle, et sa présence internationale
constitue une base idéale pour la collecte de données et le déploiement de l’IA », souligne Ben Levin,
General Manager, Physical AI chez Scale AI. « Ensemble, nous avons créé un système intégré de
données robotiques, permettant aux clients de former, déployer et améliorer leurs modèles d’IA plus
rapidement que jamais ».
Dans le cadre de cette collaboration, Universal Robots et Scale AI publieront plus tard cette année un
ensemble de données industrielles à grande échelle collectées sur les robots UR.
Découverte en direct de l’AI Trainer à la GTC
La GTC servant de rampe de lancement officielle, les participants pourront découvrir le système en
direct sur le stand d’Universal Robots, où ils guideront deux robots « leaders » UR3e en leur fournissant
des retours haptiques afin de contrôler deux robots « suiveurs » UR7e. Cette configuration permet aux
visiteurs d’effectuer une tâche avancée d’emballage de smartphones avec retour haptique pour
l’apprentissage par imitation et l’entraînement VLA, les données de démonstration étant enregistrées
en temps réel sur la stack de Scale AI et répliquées directement sur l’AI Trainer.
Le processus de capture des données d’entraînement des robots pour les modèles d’IA est également
présenté à travers une démonstration illustrant la même tâche d’emballage de smartphones, mais
cette fois-ci entraînée virtuellement. Conçue dans NVIDIA Omniverse et s’appuyant sur Isaac Sim, cette
configuration simulée permet aux participants de contrôler un système UR3e virtuel à deux bras avec
un retour haptique en temps réel, en utilisant deux appareils Haply Inverse3 comme
« leaders », offrant ainsi une simulation fidèle physiquement.
Universal Robots expérimente également l’utilisation de NVIDIA Physical AI Data Factory Blueprint
pour automatiser et faire évoluer sa génération de données synthétiques, transformant ainsi une
puissance de calcul à l’échelle mondiale en un moteur de production de données d’entraînement
robotique de haute qualité.
« La transition vers l’IA physique nécessite un changement fondamental. Elle passe d’une
automatisation rigide et préprogrammée à des robots généralistes capables de percevoir, de raisonner
et d’apprendre grâce à des interactions semblables à celles des humains », explique Amit Goel, Head
of Robotics and Edge AI Ecoystems chez NVIDIA. « En tirant parti des environnements de simulation
NVIDIA Isaac, Universal Robots développe un moteur évolutif pour la capture et la génération de
données haute-fidélité, fournissant ainsi l’infrastructure essentielle pour former à grande échelle la
prochaine génération de systèmes autonomes ».
Generalist AI démontre les performances de ses modèles de fondation robotiques en conditions
réelles
En complément des deux démonstrations de collecte de données, la présentation de Generalist met
en évidence les progrès réalisés en matière de collecte de données et de modèles d’IA.
Ceux-ci se traduisent par des performances robotiques concrètes. Lors de la première démonstration
publique des modèles de fondation incarnés de Generalist, deux robots UR7e exécutent de manière
autonome une tâche complexe d’emballage de smartphones, faisant preuve de dextérité, de
coordination et de manipulation riche en contacts dans un environnement réel. Cette démonstration
montre comment des données d’entraînement à grande échelle et de haute qualité, combinées à des
architectures de modèles de pointe, ouvrent la voie à la mise en place de systèmes d’IA physique
robustes en dehors du laboratoire.
« Generalist développe des modèles fondamentaux incarnés qui apportent une dextérité et une fiabilité
exceptionnelles », détaille Pete Florence, cofondateur et CEO de Generalist AI. « Cette démonstration
sur la plateforme industrielle éprouvée d’Universal Robots montre comment le bon sens physique peut
se traduire en capacités concrètes, ouvrant ainsi la voie à un déploiement à grande échelle dans tous
les secteurs ».
« L’adoption de notre technologie par les pionniers de la formation des modèles d’IA et de la capture
de données met en évidence les raisons pour lesquelles Universal Robots est devenue la plateforme de
prédilection pour l’IA physique », conclut Anders Beck, qui partagera son expertise à l’occasion d’une
table ronde intitulée « Au-delà de la cellule de travail : étendre les flux de travail robotiques à
l’ensemble de l’usine » à la GTC le 18 mars à 11h.
À propos de la société / marque :
Universal Robots
Voir la Société / Marque

Universal Robots
Voir la Société / Marque