Article paru dans notre lettre d'information du 20 novembre 2020

HPC, IA et quantique au cœur des préoccupations de l’Europe et des industriels

Le Forum Teratec, virtuel cette année, a été l’occasion pour les orateurs de montrer comment le HPC et la simulation numérique, souvent couplés à des applications d’Intelligence Artificielle, permettent de faire avancer rapidement la recherche dans de nombreux domaines : santé, défense, énergie, industrie… Cette édition a aussi été l’occasion pour le Commissaire européen Thierry Breton de réaffirmer la volonté de l’Europe de redevenir un leader mondial en terme de HPC, en se dotant de supercalculateurs parmi les plus puissants au monde et en développant en Europe les technologies nécessaires, qu’il s’agisse de processeurs, de logiciels, d’architectures exascales ou de machines quantiques.

Après avoir rappelé que la Covid-19 avait conduit à décaler le Forum Teratec 2020 de juin à octobre et imposé sa transformation en événement digital, Daniel Verwaerde, président et co-fondateur de Teratec, a donné sa vision de l’évolution des technologies numériques devenues incontournables : « L’avenir de ces technologies sera modelé par trois grandes perspectives : la relance voulue par la plupart des Etats qui met l’accent sur le numérique ; la montée en puissance de l’Europe dans le domaine des technologies numériques ; la progression rapide des technologies futures, notamment le quantique qui pourrait être l’une des grandes ruptures technologiques de la décennie à venir. »

Ancrer la France dans l’Europe du HPC

Il a aussi rappelé l’action de Teratec qui vise à ancrer la France au sein de l’Europe du HPC (High Performance Computing) et du HPDA (High Performance Data Analysis). « Nous avons poursuivi trois directions de travail : participer activement à la gouvernance l’entreprise commune européenne EuroHPC, afin d’y représenter les intérêts français ; être le fer de lance de la création du Centre de Compétence français aux côtés de Genci et du Cerfacs, pour apporter un large support aux entreprises, afin qu’elles bénéficient complètement des moyens mis à disposition par l’Union européenne ; faire participer les industriels européens à ce grand projet qu’est EuroHPC par la création d’une fédération des entreprises pour les y représenter formellement. »

Il a terminé son introduction en rappelant que le calcul quantique allait révolutionner dans les 5 à 10 ans à venir la manière de calculer et que la France et l’Europe étaient en pointe sur e sujet. « Cela devrait permettre à l’Europe de reprendre un rôle de leader, après une période de près de 70 ans où elle a dû se contenter d’être suiveuse en matière de HPC. »

 

La relance européenne passe par le HPC

Le Commissaire européen au marché intérieur, Thierry Breton, a insisté sur la volonté de l’Europe de redevenir un leader dans le domaine du HPC et de ses technologies connexes, qu’il s’agisse d’IA, de Big Data, de Cloud, d’Edge Computing, de processeurs basse consommation ou de quantique. Il a annoncé des investissements de plus de 8 milliards d’Euro dans ces domaines et insisté sur le fait que c’était indispensable pour la performance de la recherche et de l’industrie européenne, ainsi que pour garantir la souveraineté Numérique de l’Europe. 
Doc : UE
(cliquer sur l'image pour l'agrandir)

La deuxième intervention, très attendue, a été celle de Thierry Breton, commissaire européen en charge du marché intérieur, qui voit la décennie à venir comme ‘‘la décennie numérique’’ durant laquelle l’Europe doit renforcer ses capacités dans le calcul haute performance, mais aussi l’Intelligence Artificielle, le Big Data, le Cloud, l’Edge Computing, le quantique…

Il a insisté sur la volonté de l’Europe en matière de HPC : « le calcul à haute performance permet aujourd’hui de résoudre des problèmes très complexes dans de nombreux domaines d’application essentiels pour l’Europe (médecine personnalisée, énergie, ingénierie, chimie, exploration gazière et pétrolière, cosmétique, matériaux, climatologie, cyber-sécurité, défense, etc.). C’est un défi stratégique majeur pour l’Europe, à la fois industriel, technologique et scientifique. Il constitue l’un des piliers de notre autonomie numérique. C’est pourquoi la Commission européenne a proposé aux Etats membres d’inclure le HPC dans leurs plans d’investissement massif, faisant partie du paquet de mesures de relance économique de l’Union européenne Next Generation EU. Tous les Etats membres consacreront a minima 20 % de leurs plans d’investissement nationaux au numérique. Cela représentera plus de 130 milliards d’Euros cours des 2 à 4 prochaines années. C'est-à-dire un coup d’accélérateur majeur pour ‘‘la décennie numérique’’ de l’Europe. Et le 18 septembre la Commission européenne a également proposé d’investir, avec les Etats membres et l’industrie, plus de 8 milliards d’Euros dans les supercalculateurs exaflopiques, via EuroHPC. »

Rappelons que EuroHPC, lancé en 2018, est déjà entrain d’acquérir 8 supercalculateurs ‘‘traditionnels’’ de niveau mondial, dont 3 devraient figurer dans le Top5 mondial. Ces machines multiplieront la puissance de calcul disponible en Europe par 8, et seront accessibles à tous les utilisateurs (Universités, Recherches, Pouvoirs publics, industriels, PME…).

Thierry Breton a aussi insisté sur la nécessité de développer en Europe les processeurs basse consommation qui équiperont ses machines, mais aussi les voitures autonomes, les téléphones intelligents, les serveurs du Edge Computing ou du Cloud, etc. D’où la création d’une alliance industrielle européenne des microprocesseurs, autour de l’entreprise commune Ecsel, avec des financements très importants. Enfin, il a dit sa confiance dans l’arrivée prochaine d’accélérateurs, puis de calculateurs quantiques, qui seront capables de traiter des volumes de données colossaux, afin de résoudre des problèmes jusque là inaccessibles aux meilleures machines actuelles.

Et de conclure : « Tous ces investissements sont indispensables pour la performance collective de la recherche et de l’industrie, ainsi que pour la souveraineté numérique de l’Europe. »

Jouer la synergie civil militaire autour de l’IA et du quantique

Autre intervention attendue, celle de Florence Parly, ministre des Armées, qui a montré l’intérêt de son ministère pour les technologies numériques, plaidant pour une synergie en la matière entre le civil et le militaire.

« La course à l’innovation qui est aujourd’hui tirée par le monde civil sur lequel doit s’appuyer l’industrie de défense. Parmi les domaines où nous avons beaucoup à gagner de ces échanges, il y a évidemment l’IA, une technologie clé pour nous. Face à une véritable numérisation du champ de bataille et à l’irruption du combat connecté interarmées et interalliés, nos armes et équipements ont beaucoup évolués. Dotés de capteurs embarqués, ils engendrent aujourd’hui une utilisation massive de données. C’est pourquoi en 2019 nous avons élaboré une feuille de route sur l’IA appliquée à la Défense. Durant la loi de programmation militaire 2019-2025, 100 millions d’Euros seront investis chaque année en moyenne et près de 200 datascientists et autres experts dans le domaine seront recrutés d’ici 2023. »

Autre domaine clé on il faut faire jouer la synergie, le quantique, en s’appuyant largement sur tout l’écho-système de la recherche, notamment l’INRIA, le CEA, le CNRS ou bien encore l’ANR. Un appel à projets a d’ailleurs été lancé avec l’ANR sur les technologies quantiques, l’objectif étant notamment de veiller à l’intégration d’accélérateurs quantiques dans les centres de calcul.

Elle a terminé son intervention en insistant sur l’importance d’une réponse européenne : « C’est l’émergence de cette approche européenne dans les technologies numériques clés, portée par EuroHPC et Teratec, qu’il nous faut collectivement soutenir, Etat comme industrie. Soyez assurés que le ministère des Armées, au travers de sa politique industrielle et d’innovation, y veille scrupuleusement en s’appuyant sur votre savoir-faire. »

Des régions impliquées

Ensuite Alain Rousset, président du Conseil régional de Nouvelle-Aquitaine, a insisté sur la complémentarité des actions à mener aux niveaux européen, national et régional. Il a notamment présenté le projet VitiREV, visant à sortir le vignoble des pesticides et du glyphosate. « L’utilisation de l’IA et du HPC permet d’évaluer rapidement les impasses que rencontrent les agriculteurs et les viticulteurs, afin de pouvoir accélérer cette transition. »

Augmenter la sécurité des installations et anticiper le système électrique du futur

Du côté des présentations faites par les industriels Xavier Ursat, directeur exécutif du groupe EDF, a expliqué comment le HPC et la simulation numérique contribuaient à améliorer la sécurité de ses installations industrielles. Aujourd’hui plus de 2 000 ingénieurs du groupe utilisent ces moyens, dont environ 800 au sein de la R&D.

« Nous investissons massivement sur le HPC et l’IA qui sont indispensables à nos activités. Nous doublons quasiment notre puissance de calcul tous les 2 ans pour atteindre aujourd’hui 7 PFlops, ce qui fait de nous l’un des 5 plus gros opérateurs français de supercalculateurs. Nous disposons aussi d’un calculateur quantique d’Atos, qui avec ses 120 000 processeurs nous apporte des capacités supplémentaires. »

Il a expliqué comment le HPC et la simulation numérique apportaient toujours plus de précision dans les études demandées par l’Autorité de Sureté Nucléaire. Mais aussi comment ces outils ont permis, grâce à l’exploitation par des algorithmes de Machine Learning des milliards de données, enregistrées depuis des décennies dans les réacteurs nucléaires et les installations hydro-électriques, de renforcer la sécurité des assemblages combustibles, l’exploitation et la maintenance des installations, ainsi que la formation des opérateurs via des jumeaux numériques. Des technologies qui servent aussi à simuler l’équilibre de la production face à l’évolution des scénarios de demande d’électricité. Il a aussi confirmé qu’EDF travaillant déjà sur l’adaptation de ses modèles aux futures machines quantiques.

Et de conclure sur les défis du système électrique du futur que le HPC et les technologies connexes devraient aider à relever : « Les nouveaux moyens de production décentralisés et centralisés, les nouvelles formes de consommation, les défis que représente l’adaptation constante au changement climatique, rendent ces outils incontournables. Nous y travaillons ardemment et c’est pourquoi le Groupe EDF sera présent et saura relever le défi de la puissance de calcul. »

Le HPC accélère la mutation de Total

Deuxième présentation faite par un industriel, celle de Marie-Noëlle Semeria, directrice R&D du groupe Total, qui a expliqué comment les technologies numériques vont aider le groupe pétrolier à assurer sa mutation en une entreprise multi-énergie.

« Notre objectif est de faire passer la part de l’électrique de 5 % aujourd’hui à 15 % en 2030, tout en intégrant complètement les enjeux du climat et d’une production neutre en carbone en Europe à l’horizon 2050. On peut le faire en travaillant au niveau des outils, des logiciels, des solutions à apporter au système global, soit pour diversifier l’apport en recourant aux énergies vertes, soit en récupérant et en stockant le CO2. Ces défis qui sont devant nous nécessitent des capacités de calcul importantes et toute l’expertise du HPC. »

Elle a ensuite donné quelques exemples d’utilisation de ces technologies dans le groupe : la capture du CO2 avec les enjeux de modélisation moléculaire pour trouver le matériau le plus efficace ; le stockage géologique du CO2 avec les enjeux de simulation sur les aspects fluidiques et mécaniques ; l’optimisation des giga-fermes d’éoliennes off-shore ou solaires ; l’hybridation des réseaux ; l’optimisation des flottes de véhicules électriques, etc. « Dans tous ces domaines nous générons des quantités de données et grâce à la simulation couplée à l’IA nous pouvons à présent décupler notre vitesse d’apprentissage en développant des modèles prédictifs fiables et en arrivant à modéliser des systèmes complexes qui ne sont pas observables. »

A propos des l’IA est a estimé : « Les modèles d’intelligence distribuée sont un vrai ‘‘Game Changer’’ car ils permettent d’adresser trois enjeux : la performance en concevant l’architecture du calcul pour optimiser ce qui se fait au plus près du terrain pour ne remonter que ce qui est important ; l’efficacité énergétique puisque nous limitons notre empreinte carbone ; la souveraineté en gardant les données au plus près des sites. La valeur de la donnée industrielle démarre aussi dans la façon dont on la traite au plus près de la mesure. D’où l’enjeu du Edge Computing et des technologies 5G, qui font complètement partie de notre feuille de route du HPC. »

Elle aussi a insisté sur l’intérêt de son groupe pour les technologies quantiques. « Nous voulons y être présent et acteur, pour être capables de formaliser nos problématiques dans le bon langage quantique. Cette technologie a un potentiel formidable car elle permet d’accélérer tout ce qui est parallélisme, en jouant sur la superposition et l’intrication des états quantiques. Nous utilisons déjà un émulateur de calcul quantique d’Atos pour apprendre. »

Et de conclure : « Les technologies numériques sont pour Total un ‘‘asset’’, un accélérateur de transformation, un catalyseur par rapport aux technologies 5G ou Edge Computing, ainsi qu’un formidable générateur d’innovation. »

Le Deep Learning accélère la mise au point des médicaments

Ce fut ensuite au tour de Eric Genevois-Marlin, Global Head of R&D Digital and Data Sciences de Sanofi, de prendre la parole pour expliquer comment les technologies numériques transforment fondamentalement les process de création des nouveaux médicaments.

Qu’il s’agisse d’étudier les pathologies, leur biologie compliquée avec de multiples variantes, les populations de malades, ou les molécules chimiques qui pourraient être actives, il faut faire appel à beaucoup de sciences (biologie, chimie, physique, chromatographie, médecine, ingénierie…), mais aussi beaucoup de mathématiques (probabilités, statistiques…), donc de calcul, et maintenant d’Intelligence Artificielle.

« Aujourd’hui nous évaluons l’utilisation du Deep Learning couplé au HPC pour trouver dans l’espace des molécules chimiques (1060 à 1080), un sous-ensemble de molécules qui auraient les propriétés chimiques que nous souhaitons, ainsi que les capacités en termes d’activité et de tolérance, pour répondre au besoin thérapeutique envisagé. Nous travaillons également à l’application de ce type de méthodes sur des molécules biologiques issues de culture cellulaire, afin de fabriquer un anticorps qui pourra attaquer un antigène connu comme responsable d’une pathologie donnée. C’est un espace d’innovation considérable qui s’est ouvert, avec lequel nous espérons avoir des résultats intéressants dans un futur proche. »

L’IA est aussi largement utilisée dans la phase de test chez l’humain. « Nous testons ainsi un algorithme de Deep Learning pour étudier des images cellulaires issues de malades, afin d’identifier et de mesurer avec précision leur degré d’exposition à un antigène particulier. Nous allons cibler celui-ci avec un anticorps basé sur une de nos molécules. Cet exercice nous permettra de prédire l’activité de notre produit. Pour cela, nous allons simuler les essais cliniques selon les méthodes traditionnelles (essais randomisés) avec des méthodes d’analyse traditionnelles (modèle de régression de Cox). On va en déduire qu’elle est la probabilité qu’un essai clinique conduit chez ces patients soit conclusif. Cela n’a pas encore été fait, mais cette approche permettrait de cibler avec beaucoup de précision la population de malades que nous souhaitons traiter, en étant quasiment sûr de l’efficacité du traitement. »

Les technologies numériques ont aussi très largement utilisées chez Sanofi en production pour bâtir des modèles prédictifs en traitant les données collectées en temps réel via des capteurs. Ils servent à évaluer et optimiser les process de fabrication pour faciliter la prise de décisions précises. Enfin, ces technologies servent aussi à gérer le volume de connaissances considérable accumulé par Sanofi depuis des décennies.

Une utilisation des technologies numériques qui implique une profonde mutation de l’industrie pharmaceutique. « Depuis 5 ans nous avons vu les autorités d’enregistrement des grandes régions du monde (Europe, USA, Chine, Japon) commencer à adopter ces nouvelles techniques pour évaluer de nouvelles molécules découvertes sur la base d’algorithmes d’IA. Ce qui va induire dans les prochaines années une profonde mutation de l’industrie pharmaceutique et de sa R&D, car les données, la technique, les méthodes d’analyse et la capacité de calcul auront fondamentalement transformé le processus intellectuel qui aboutit à la création d’un nouveau médicament. »

Des fournisseurs à l’unisson

La session plénière s’est achevée par les présentations de deux fournisseurs de technologies. Trish Damkroger, Vice President d’Intel Data Center Group, a ainsi expliqué comment le fabricant de processeurs adapte ses produits pour être au cœur de la convergence HPC/IA.

« Grâce à la croissance des cas d’usage utilisant l’IA, de nombreuses équipes entrent dans une nouvelle ère du calcul et de la modélisation. La convergence du HPC et de l’IA permet d’accélérer de nombreuses simulations et des modèles créés par l’IA remplacent des modèles traditionnels. Pour accompagner cette convergence, nous avons développé l’Intel XPU Strategy. Elle mixe CPU, GPU,FPGA et des accélérateurs spécifiques, avec du Deep Learning au niveau Data Center et Edge Computing, le tout autour d’un standard ouvert de modèle de programmation unifié. L’objectif étant de simplifier le développement d’applications et leur portabilité. »

De même, elle a expliqué que le processeur Xeon a été optimisé pour traiter au mieux cette convergence et que ses versions Sapphire Rapids de 2021, puis PonteVecchio le seront plus encore. Enfin, une interface de programmation oneAPI a été développée avec l’écosystème, afin de faciliter la programmation à travers de multiples types de processeurs et d’accélérateurs, CPU, GPU et FPGA, qu’il s’agisse de traiter des données scalaires, vectorielles, matricielles ou spatiales.

Pour terminer, Kevin D. Kissell, CTO de Google, qui a décrit comment les solutions hybrides sont les plus efficaces pour s’adapter à la complexité d’un monde changeant.

Il a ainsi cité quelques exemples de déploiement de solutions hybrides HPC/Cloud pour aider les recherches en physique des hautes énergies. Le FermiLab a ainsi doublé le nombre de cœurs de processeurs accessibles via le HEPCloud, le Cloud de la communauté des spécialistes de la physique des particules, en le connectant au Cloud de Google. De même, le CERN a pu reproduire la découverte du boson de Higgs en utilisant la technologie Kubernetes, un système Open Source fournissant une plate-forme automatisant le déploiement, la montée en charge et la mise en œuvre de conteneurs d'application, ici des Google Container Engine (GKE), sur des clusters de serveurs utilisant dans ce ces 20 000 cœurs de processeur virtuels pour traiter 70 TB de données.

Il a aussi donné un autre exemple d’hybridation dans le domaine de la prédiction météo où le Google Brain Research Team a travaillé pour la NOAA (National Oceanic and Atmospheric Administration). Ils ont remplacé la simulation physique traditionnelle par l’analyse optique d’images satellite pour réaliser les prévisions de précipitations, en fonctionnant sur un réseau de neurones de plus de 256 Google TPU. Ce modèle baptisé MetNet s’est révélé beaucoup plus précis et rapide que la simulation traditionnelle.

Il a enfin expliqué que dans le domaine de l’informatique quantique, on retrouve aussi des applications hybrides mixant les méthodes variationnelles et classiques. Ainsi un modèle quantique paramétrique d’un système peut être optimisé de manière itérative en utilisant des algorithmes classiques. « Cela a permis cette année de modéliser la molécule de diazène H2N2 avec suffisamment de précision pour simuler la formation des deux isomères en Cis et Trans, sur un de nos processeurs Sycamore. Une avancée importante montrant l’intérêt de l’informatique quantique dans le domaine des sciences. »

« On voit l’intérêt des solutions hybrides mixant simulation numérique, IA, HPC, Quantique, Cloud, etc., dans de multiples domaines. Elles offrent plus de possibilités de traitement, plus de puissance pour traiter plus rapidement des problèmes toujours plus complexes. Ce sera la solution pour faire face aux défis du futur dans les domaines de la santé avec les pandémies ou du changement climatique. », a-t-il conclu.

Jean-François Prevéraud

Pour en savoir plus : https://teratec.eu/forum/colloque.html

Ingénieur de formation (ENIM) et journaliste professionnel depuis 1981, Jean-François Prevéraud a participé à de nombreux journaux et lettres d'information (Bureau d'Etudes, CFAO Synthèse, SIT, Industrie & Technologies, Usine Nouvelle...) comme journaliste, rédacteur en chef adjoint ou rédacteur en chef.

En retraite depuis février 2017, Jean-François veut que celle-ci soit active. C'est pour cette raison qu'il reste informé de ce qui bouge dans le PLM dans son sens le plus large (CFAO, Simulation Numérique, Impression 3D, Usine du futur, Réalité virtuelle et augmentée...). Il contribue désormais à notre lettre d'information pour commenter l'actualité que nous publions ou celle qu'il a pu glaner dans les événements qu'il continue à suivre.

Vous pouvez accéder ci-dessous à ses derniers articles.