L'école Polytechnique de Saclay accueille les 27 et 28 juin prochains la sixième édition du Forum Ter@tec. Un rassemblement d'experts internationaux du calcul haute performance qui débattront des sujets clés du HPC et notamment de sa place dans la conception de produits complexes.
HPC : un enjeu concurrentiel majeur
Ce n'est pas à nos lecteurs que nous apprendrons la large diffusion du calcul numérique depuis dix ans et les enjeux qu'il recouvre notamment en terme de compétitivité. Géologie, finance, astronomie, automobile, nucléaire, sciences de la vie, divertissement… tous les secteurs ou presque utilisent des codes de calcul et de simulation. L'objectif principal est de comprendre le comportement de systèmes complexes dans leur environnement réel.
On fait donc toujours plus de calculs, sur des modèles toujours plus massifs et dans un délais souhaité toujours plus court. Cette course à la puissance de calcul à un nom : HPC (calcul numérique haute performance). Le cabinet d'analyse IDC annonce que le marché du calcul intensif à franchi en 2011 le cap des 10 milliards de dollars. La vente des machines, ces énormes serveurs capables d'aligner plusieurs milliers, voire dizaines de milliers, de cœurs de calcul dans la même salle informatique, a en effet augmenté de 8,4% pendant cette période. Et cette tendance devrait perdurer voire s'accélérer dans les années qui viennent.
Les PME encore trop exclues
Il y a encore peu de temps, seuls les laboratoires comme le CEA, le Cern ou les services de météorologie pouvaient se payer ces jouets de plusieurs centaines de milliers d'euros l'unité, sans compter les frais de fonctionnement. Désormais, les grandes entreprises comme Total, Airbus, Renault ou le Crédit Agricole n'hésitent plus à investir dans ces équipements. Les outils hardwares et softwares adaptés à leurs besoins sont là, et leur compétitivité mondiale est à ce prix.
Si les PME industrielles manifestent elles aussi des besoins en matière de calcul haute performance, elles n'ont cependant pas les moyens financiers d'y accéder. Plusieurs opérateurs comme IBM, SGI ou Bull, associés à des éditeurs tels ESI, ou CD Adapco, ont lancé il y deux ans des offres de cloud computing permettant d'utiliser des outils de HPC à distance. Des services visant entre autres les PME pour leur faire découvrir l'intérêt du HPC. Aujourd'hui, le bilan est mitigé. Comme l'explique Patrice Gommy, responsable marketing Europe du Sud pour SGI, "c'est davantage les grandes entreprises qui utilisent ces services pour écrêter des pics de charge. Environ 75% d'entre elles sont étrangères et majoritairement américaines. Paradoxalement, les PME qui s'intéressent au sujet finissent souvent par acquérir leurs propres serveurs HPC."
La démocratisation du calcul intensif passe donc sans doute par une réelle implication financière des pouvoirs publics. Vue la période de disette économique dans laquelle se trouve la France, il y a peu de chance que les crédits coulent à flot pour les PME qui souhaitent s'équiper en HPC. Dommage, car cette technologie recouvre un fort potentiel de différenciation pour les entreprises manufacturière. Un levier leur permettant de concevoir des produits plus innovants, plus légers, plus écologiques, plus fiables, bref plus performants.
Démarrage lent pour Initiative HPC-PME
Lancé fin 2010 par Genci, l'Inria et Oseo, Initiative HPC-PME vise à démocratiser les techniques de HPC vis-à-vis des petites et moyennes entreprises. Pour cela, il s'appuie également sur quatre pôle de compétitivité : Aerospace Valley (aéronautique, espace, systèmes embarqués), Axelera (chimie et environnement), Minalogic (solutions miniaturisées intelligentes pour l'industrie) et Systematic (systèmes complexes). L'offre mise en place regroupe la formation, l'expertise (transfert de compétences issues de la recherche publique), l'accès aux équipements de calcul intensif, enfin l'aide au financement.
La demande d'entrée dans le programme s'effectue par dépôt en ligne d'un pré-dossier. Un comité de suivi se réunit mensuellement (10 fois par an), examine les opportunités et valide les demandes. "Notre but n'est pas de nous substituer aux offres commerciales de HPC disponibles sur le marché. Nous nous situons en amont, avec pour objectif d'aider les PME qui ont un véritable besoin industriel à sauter le pas du HPC pour gagner en compétitivité" explique Stéphane Requena, en charge de l'initiative côté Genci.
Reste que cette démarche d'évangélisation demande du temps pour aboutir à des résultats tangibles. Pour l'instant, sur seize dossiers en cours d'évaluation, un seul a été validé, celui de la société Danielson Engineering. Cette PME a aujourd’hui acquis un serveur de calcul, financé son projet par Oséo et l'utilise pour des analyses de CFD et de phénomènes de combustion interne.
Une problématique technique riche
Sur le plan technique, le calcul numérique haute performance ne repose pas sur la seule puissance brute des puces de calcul. La manière d'utiliser ces ressources, la standardisation des codes de calculs, la simplification des logiciels, sans oublier le stockage des calculs et leur valorisation dans l'entreprise sont autant de maillons de la chaîne qu'il s'agit d'optimiser. De nombreuses questions se posent. Comment les entreprises doivent-elles aborder ce tournant stratégique ? Quels types de calculs ou de développements externaliser ? Quelles architectures choisir ? Comment développer la simulation multi-échelle ? Quels sont les derniers développements en matière de simulation multi-physique ?
Autant de problématiques traitées dans le cadre du Forum Ter@tec, l’événement qui réunit la profession du HPC, et qui se déroulera les 27 et 28 juin prochains à l’École Polytechnique de Palaiseau. Pendant ces deux jours, vous pourrez découvrir les stands d'une soixantaine d'entreprises actives sur ce domaine : constructeurs de machines, prestataires de services, éditeurs de logiciels, laboratoires de recherches, pôles de compétitivité, organismes d'aide publics, etc.
En parallèle, vous pourrez assister le mercredi 27 juin à des conférences de spécialistes internationaux autour du thème de laconception numérique et de la diversité des usages du calcul intensif. Le jeudi 28 juin, des ateliers techniques feront le point sur de grands sujets d’actualité, notamment les systèmes à haute performance, le green IT, les GPU, l’ingénierie des systèmes complexes, le déluge de données, la visualisation scientifique et la bio-santé.
Trois ateliers majeurs :
– La conception numérique des systèmes complexes : progrès et verrous technologiques (jeudi de 9 h à 12 h 30).
Différents points de vue internationaux seront adressés via des industriels, des grands laboratoires de recherche, des sociétés de service spécialisées et des éditeurs de solutions logicielles. Cet atelier sera en outre introduit par Michel Ravachol (Dassault-Aviation, coordinateur du projet CSDL) qui au travers de son expérience chez Dassault-Aviation, du projet de recherche CSDL (Complex Design System Laboratory) et des futurs projets de l’IRT Systemx, dressera un état de l’art de la discipline, en pointant les verrous qui ne sont pas encore levés et les méthodes entrevues à date pour progresser. On citera par exemple la réduction des modèles et des contraintes initiales en phases d'avant-projet ou encore l'optimisation pluridisciplinaire.
– Les challenges de l'exascale (jeudi de 9 h à 13 h).
L’objectif de l’exascale, c’est de permettre la réalisation de machines mille fois plus puissantes que celles que nous connaissons aujourd’hui. Avec à la clef des simulations à la fois plus rapides, plus précises et plus complexes.
Seulement, il y a de nombreux défis technologiques à relever comme celui de la consommation électrique de telles machines. Comme le souligne Marc Dollfus, Research and HPC manager chez Intel Corp. : "l'objectif est de multiplier par 500 la puissance des serveurs de calculs d'ici 2020, avec une consommation énergétique seulement trois fois plus élevée. Impossible donc de simplement multiplier les cœurs de calcul. Cela exige une nouvelle approche globale de notre part à la fois sur l'architecture machine, mais également sur l'aspect logiciel tant OS, qu'applicatif. Par ailleurs, une machine exascale devra combiner l'économie et la souplesse. Une souplesse qui permettra par exemple de fournir des services adaptés aux industriels." Et donc de leur permettre d'accéder à la technologie avec une offre dimensionnée à leurs besoins et leur capacité financière…
– Session spéciale PME (jeudi après-midi)
Sous la houlette de Pierre Beal de Numtech Groupe Seth et de Gérard Roucairol, président de Ter@tec, plusieurs intervenants débattront des enjeux et besoins spécifiques des PME. Comment faciliter l'accès à la puissance de calcul et à l'expertise de haut niveau ? Comment développer des plateformes de services ? Quelles sont les aides au financement ? Où en sont les programmes de recherches collaboratif ? Comment développer les relations avec les grands groupes ?
Cette session comportera également une présentation du Campus Ter@tec et du programme monté par la CCIE pour les accueillir et les accompagner dans leur développement.
En bref
La maison de la simulation
Prace est une infrastructure européenne dont l'objectif est de promouvoir le calcul haute performance et faciliter l'accès de la communauté scientifique aux supercalculateurs européens. Prace regroupe aujourd'hui six grands calculateurs d'une puissance globale de 15 petaflop/s, localisés en Allemagne, Espagne, France et Italie. La machine française est installée et exploitée à Bruyères-le-Châtel au Très Grand Centre de Calcul du CEA (TGCC) sur le site DAM-Ile-de-France du CEA. Actuellement, 24 pays européens sont membres de l'infrastructure Prace : la France y est représentée par Genci.
Dans ce cadre, six infrastructures, dont en France la Maison de la Simulation ont reçu le label Prace Advanced Training Center. Le but de ces centres est d'organiser des formations couvrant l'ensemble des techniques indispensables au calcul intensif et de créer ainsi une communauté d'utilisateurs capable d'exploiter scientifiquement les supercalculateurs déployés dans le cadre de Prace. La Maison de la Simulation est une initiative conjointe du CEA, du CNRS, d'Inria, de l'université de Versailles Saint-Quentin-en-Yvelines et de l'université Paris-Sud.
Intel rachète les interconnexions de Cray
Le fondeur américain s'est payé une technologie clé du fabricant de supercalculateurs Cray permettant à plusieurs milliers d'unités de calcul de fonctionner à l'unisson au sein d'une machine HPC. Pour 140 millions de dollars, Intel a acquis un portefeuille de brevets, et négocié le transfert de 74 ingénieurs spécialisés dans ses locaux de Santa Clara. « Progresser dans le domaine du calcul haute performance, avec l'objectif de franchir la barrière de l'Exascale, implique d'énormes innovations dans le domaine des technologies d'interconnexion » justifie Diane Bryant, vice-présidente Intel en charge de la division HPC.
L'un des directions suivies par les fabricants de supercalculateurs étant la combinaison de plusieurs milliers de processeurs de type CPU avec autant de cartes GPU, les liens internes sont donc un des maillons essentiels à optimiser pour espérer atteindre de hautes performances. Intel réalise ainsi un investissement qui lui permettra de devenir incontournable dans cette course à la performance, dont le prochain objectif est l'exascale.
cad167_pp16-19_evenement-teratec