AccueilActualitésAMD dévoile sa vision de l’écosystème d’IA ouvert, et présente ses nouveaux semi-conducteurs, logiciels et systèmes lors d’Advancing AI 2025

#Matériels pour la CAO

AMD dévoile sa vision de l’écosystème d’IA ouvert, et présente ses nouveaux semi-conducteurs, logiciels et systèmes lors d’Advancing AI 2025

  • Publié le 12/06/2025
  • 8min. de temps de lecture
  • Seul AMD couvre l’ensemble du spectre de l’IA, en réunissant des GPU, des CPU et des logiciels libres de premier plan pour offrir une flexibilité et des performances inégalées

    Meta, OpenAI, xAI, Oracle, Microsoft, Cohere, HUMAIN, Red Hat, Astera Labs et Marvell ont parlé de leur partenariat avec AMD pour des solutions d’Intelligence Artificielle (IA)

    Santa Clara – 12 juin 2025 – AMD (NASDAQ : AMD) a présenté sa vision de la plateforme d’IA intégrée de bout en bout et a présenté son infrastructure d’IA ouverte et évolutive à l’échelle du rack, construite sur les standards de l’industrie, lors de son événement annuel « Advancing AI ».

    AMD et ses partenaires ont présenté :

    • Comment ils construisent l’écosystème ouvert de l’IA avec les nouveaux accélérateurs AMD Instinct™ Série MI350.
    • La croissance continue de l’écosystème AMD ROCm™
    • Les nouvelles et puissantes conceptions ouvertes à l’échelle du rack et la feuille de route de l’entreprise qui porte le leadership Rack Scale AI au-delà de 2027.

    « AMD conduit l’innovation en matière d’IA à un rythme sans précédent, mis en évidence par le lancement de nos accélérateurs AMD Instinct Série MI350, les avancées de nos solutions rack-scale AMD Helios de nouvelle génération et l’élan croissant de notre pile logicielle ouverte ROCm », a déclaré le Dr Lisa Su, présidente et directrice générale d’AMD. « Nous entrons dans la prochaine phase de l’IA, portée par des standards ouverts, une innovation partagée et le leadership croissant d’AMD dans un vaste écosystème de partenaires matériels et logiciels qui collaborent pour définir l’avenir de l’IA. »

    AMD propose des solutions phares pour accélérer l’écosystème ouvert de l’IA

    AMD a annoncé un large éventail de composants, de logiciels et de solutions pour alimenter l’ensemble du spectre de l’IA :

    • AMD a dévoilé les GPU Instinct™ série MI350, établissant une nouvelle référence en matière de performance, d’efficacité et d’évolutivité dans l’IA générative et le calcul à haute performance. La série MI350, composée des GPU et plateformes Instinct MI350X et MI355X, offre une puissance de calcul pour l’IA 4 fois plus importante que la précédente génération1, et un bon générationnel d’un facteur 35 en matière d’inférence2, ouvrant la voie à des solutions d’IA transformatives dans tous les secteurs. MI355X offre également des gains significatifs en termes de prix et de performances, générant jusqu’à 40 % de tokens-per-dollar en plus par rapport aux solutions concurrentes3Plus de détails sont disponibles dans cet article de Vamsi Boppana, AMD SVP, AI.
    • AMD a fait la démonstration d’une infrastructure d’IA de bout en bout, à l’échelle du rack et aux standards ouverts – déjà déployée avec les accélérateurs AMD Instinct™ série MI350, les processeurs AMD EPYC™ de 5ème génération et les cartes réseau AMD Pensando™ Pollara dans des déploiements hyperscaler tels qu’Oracle Cloud Infrastructure (OCI) et prévue pour une large disponibilité au 2ème semestre 2025.
    • AMD a également présenté en avant-première son rack de calcul IA de nouvelle génération baptisé « Helios ». Il sera construit sur la prochaine génération de GPU AMD Instinct™ série MI400 qui, par rapport à la génération précédente, devraient offrir des performances jusqu’à 10 fois supérieures pour l’inférence sur les modèles Mixture of Experts4, les CPU AMD EPYC™ « Venice » basés sur « Zen 6 » et les NIC AMD Pensando « Vulcano ». Plus de détails sont disponibles dans cet article de blog.
    • La dernière version de la pile logicielle open-source d’IA d’AMD, ROCm 7, est conçue pour répondre aux exigences croissantes de l’IA générative et des charges de travail de calcul à haute performance, tout en améliorant considérablement l’expérience des développeurs dans tous les domaines. ROCm 7 offre une meilleure prise en charge des frameworks standard de l’industrie, une compatibilité matérielle élargie et de nouveaux outils de développement, pilotes, API et bibliothèques pour accélérer le développement et le déploiement de l’IA. Plus de détails sont disponibles dans ce billet de blog d’Anush Elangovan, AMD CVP du développement logiciel d’IA.
    • La série Instinct™ MI350 a dépassé l’objectif quinquennal d’AMD d’améliorer de 30 fois l’efficacité énergétique des nœuds d’entraînement à l’IA et de calcul haute performance, pour finalement atteindre une amélioration 38 fois plus importante5. AMD a également dévoilé un nouvel objectif pour 2030 visant à multiplier par 20 l’efficacité énergétique à l’échelle du rack par rapport à l’année de référence 20246, permettant à un modèle d’IA typique qui nécessite aujourd’hui plus de 275 racks d’être formé dans moins d’un rack entièrement utilisé d’ici 2030, en consommant 95 % d’électricité en moins7Plus de détails sont disponibles dans ce billet de blog de Sam Naffziger, SVP et Corporate Fellow d’AMD.
    • AMD a également annoncé la disponibilité à grande échelle de l’AMD Developer Cloud pour les communautés mondiales de développeurs et de logiciels libres. Conçu pour le développement rapide et performant de l’IA, les utilisateurs auront accès à un environnement cloud entièrement géré avec les outils et la flexibilité nécessaires pour démarrer des projets d’IA – et les développer sans limites. Avec ROCm 7 et AMD Developer Cloud, AMD abaisse les barrières et élargit l’accès au calcul de nouvelle génération. Les collaborations stratégiques avec des leaders tels que Hugging Face, OpenAI et Grok prouvent la puissance des solutions ouvertes et co-développées.

    L’écosystème de partenaires présente les progrès de l’IA réalisés grâce à AMD

    Aujourd’hui, 7 des 10 plus grands constructeurs de modèles et sociétés d’IA exécutent des charges de travail de production sur des accélérateurs Instinct™, parmi lesquels Meta, OpenAI, Microsoft et xAI, qui ont rejoint AMD et d’autres partenaires lors de l’événement « Advancing AI », pour discuter de leur collaboration avec AMD dans le domaine des solutions d’IA permettant de former les modèles d’IA les plus avancés à l’heure actuelle, d’alimenter l’inférence à grande échelle et d’accélérer l’exploration et le développement de l’IA :

    • Meta a expliqué comment l’accélérateur Instinct™ MI300X est largement déployé pour l’inférence pour Llama 3 et Llama 4. Meta a fait part de son enthousiasme pour le modèle MI350 et sa puissance de calcul, sa performance par coût total de possession et sa mémoire de nouvelle génération. Meta continue de collaborer étroitement avec AMD sur les feuilles de route d’IA, y compris la plateforme Instinct™ MI450.
    • Sam Altman, PDG d’OpenAI, a évoqué l’importance de l’optimisation holistique du matériel, des logiciels et des algorithmes, ainsi que le partenariat étroit d’OpenAI avec AMD sur l’infrastructure d’IA, avec des modèles de recherche et GPT sur Azure en production sur avec les accélérateurs MI300X, ainsi que des engagements de conception avancée sur les plateformes de la série MI400.
    • Oracle Cloud Infrastructure (OCI) est l’un des premiers leaders de l’industrie à adopter l’infrastructure d’IA ouverte en rack d’AMD avec les GPU AMD Instinct™ MI355X. OCI s’appuie sur les CPU et GPU AMD pour offrir des performances équilibrées et évolutives aux clusters d’IA, et a annoncé qu’il offrirait des clusters d’IA zettascale accélérés par les derniers processeurs AMD Instinct™ avec jusqu’à 131 072 GPU MI355X pour permettre aux clients de construire, d’entraîner et d’inférer l’IA à grande échelle.
    • HUMAIN a présenté son accord historique avec AMD pour construire une infrastructure d’IA ouverte, évolutive, résiliente et rentable, en s’appuyant sur le spectre complet des plates-formes informatiques que seul AMD peut fournir.
    • Microsoft a annoncé que les accélérateurs Instinct™ MI300X alimentait désormais des modèles propriétaires et open-source en production sur Azure.
    • Cohere a indiqué que ses modèles de commande haute performance et évolutifs sont déployés sur Instinct MI300X et qu’ils permettent une inférence LLM de niveau professionnel avec un débit élevé, une grande efficacité et une grande confidentialité des données.
    • Red Hat a décrit comment sa collaboration élargie avec AMD permet de créer des environnements d’IA prêts à la production, les GPU AMD Instinct™ sur Red Hat OpenShift AI offrant un traitement d’IA puissant et efficace dans les environnements de cloud hybride.
    • Astera Labs a souligné comment l’écosystème ouvert UALink accélère l’innovation et offre une plus grande valeur aux clients, et a partagé des plans pour offrir un portefeuille complet de produits UALink pour soutenir l’infrastructure d’IA de nouvelle génération.
    • Marvell a rejoint AMD pour partager la feuille de route du commutateur UALink, la première interconnexion véritablement ouverte, apportant la flexibilité ultime pour l’infrastructure d’IA.

    À propos de la société / marque :