Les 28 et 29 juin prochains, l’école Polytechnique de Palaiseau accueillera une nouvelle édition du Forum Teratec dédié à la simulation numérique et au HPC (Calcul haute performance). Ce sera l’occasion de faire le point sur les progrès en matière d’analyse numérique, son rôle pour la compétitivité des industriels, et de découvrir notamment comment les PME peuvent accéder à ces offres de calcul avancé.
Les enjeux du HPC
HPC, High Performance Computing. Un acronyme pour décrire les technologies parallélisant les calculs à l’aide de processeurs multi-coeurs afin d’en accélérer la résolution. Car désormais, rien ou presque ne semble échapper au calcul numérique et aux modèles mathématiques inventés pour modéliser notre monde. Ingénierie, sciences de la vie, finance, météorologie, astrophysique, géologie, cinéma, jeux vidéo, etc. Autant de secteurs qui ne cessent de voir leurs besoins croître en la matière. Une mise en équation totale qui bénéficie même d’une nouvelle désignation marketing : le jumeau numérique ! Quelle que soit la complexité d’un système, il devient en effet possible de simuler virtuellement son fonctionnement dans son environnement réel. Les objectifs sont multiples : mieux comprendre les lois qui le régissent, améliorer ses performances, prédire son évolution, générer des images d’animation plus réalistes, calculer des niveaux de risques, etc.
Dans le domaine manufacturier, chercheurs et ingénieurs font donc davantage de calculs, sur des modèles toujours plus imposants, plus complexes et couplant davantage de physiques. Dans le domaine aéronautique par exemple, l’objectif est de simuler le comportement de l’avion au complet. C’est déjà le cas pour l’analyse aérodynamique. Et c’est tout proche pour l’aspect structurel. Airbus a montré qu’il était capable de simuler la structure quasi complète d’un A350 XWB, vis-à-vis du comportement non-linéaire de sa structure. Un modèle de 70 millions de degrés de liberté a été testé en statique sur douze cas de chargement différents.
Un accès difficile pour les PME
Les modèles grossissent, les simulations couplent davantage de physiques entre elles, et les bureaux d’études souhaitent tester toujours plus d’hypothèses. Et bien entendu, le time to market exige une réduction des temps de calcul. Le HPC revêt donc de forts enjeux pour la compétitivité des industriels. Mais qui l’exploite aujourd’hui ? Principalement les grandes entreprises. D’abord parce que les questions à se poser ne sont pas triviales : combien de temps vais-je économiser en passant mon problème sur une solution HPC ? Et est-ce que je vais véritablement gagner par rapport aux solutions que j’utilise ? Comme l’explique Jean-Marc Petit VP of Business Development de Comsol France : « le HPC n’est pertinent que sur les gros modèles, supérieurs au million de DDL. Il se montre très utile et performant, par exemple, pour des analyses paramétriques distribuées sur de nombreux coeurs. »
Ensuite, parce que les PME n’ont pas la compétence technique pour exploiter une infrastructure de HPC. On ne « balance » pas comme cela un modèle de calcul d’une station de travail à une machine ou un serveur HPC. « Il faut gérer de nombreux aspects liés à la machine, à l’OS, à la version du logiciel de calcul et surtout au type d’application. Sur un serveur par exemple, il faut utiliser un scheduler pour gérer les files de calculs, choisir des librairies de calcul adaptées à son problème. Et puis le calcul parallèle recouvre plusieurs cas de figures. Mémoire partagée par de multiples coeurs, ou mémoire distribuée et calcul répartis sur différents noeuds de calcul (cas des serveurs). Et au sein de ces deux grandes familles de HPC, il y a à nouveaux des contraintes qu’il faut analyser pour optimiser les calculs » détaille Jean-Marc Petit.
cad191_pp40-45_dossier-hpc