Forum Teratec Essais et Modelisation Avis d’expert La simulation numérique : un élément incontournable de l’industrie actuelle Le rôle croissant que joue la simulation numérique depuis de nombreuses années se confirme, au point de toucher tous les pans de l’industrie. Véritable élément désormais incontournable, la simulation a su bénéficier des progrès considérables en termes de calcul haute performance (HPC). Elle connaît néanmoins des limites qu’elle devra franchir pour répondre pleinement aux besoins des industriels, à commencer par la maîtrise du calcul parallèle. Comment envisager de nos jours un monde industriel sans simulation numérique ? Peut-on imaginer revenir à la planche à dessin et abandonner les outils de CAO ? Peut-on imaginer que les pilotes de lignes commencent leur apprentissage sur des avions réels ? Peut-on faire des prototypes de produits pour tester leur robustesse sans avoir préalablement simulé leur tenue mécanique ? Va-t-on forer un puits de pétrole à l’endroit indiqué par une baguette de sourcier ? La simulation numérique est tellement présente dans nos métiers qu’elle est une évidence. Au même titre que de piloter un avion ou une Formule 1 depuis son salon semble à la portée de tous grâce à sa console de jeu. Dans la plupart des cas, la question n’est donc plus : « puis-je le simuler ? » mais plutôt « Quel effort dois-je faire pour réaliser ma simulation ? », « Quel est le niveau de représentativité de ma simulation ? » ou encore « Ma simulation va-t-elle être réalisée dans un temps suffisamment court ? » Les enjeux de la simulation, c’est d’être capable de prendre en compte simultanément de plus en plus d’éléments et de phénomènes, de façon plus précise, dans des temps de traitement Cnes – Portage et optimisation de code : maintien en condition opérationnelle des applications HPC pour la DSI en charge des moyens des calculs mutualisés et du HPC Airbus – Optimisation et portage : parallélisation des outils pour les simulateurs de vol, prise en compte du HPC pour les outils aérodynamiques du bureau d’étude toujours plus courts. La réponse à ces enjeux passe par une augmentation exponentielle du nombre d’information à traiter. Le HPC (High Performance Computing) : c’est donner les outils pour traiter efficacement ces données de simulation À titre d’exemple, le volume de données à traiter pour une simulation est désormais de l’ordre de plusieurs TeraOctets (1000 Go), que ce soit pour des applications de dimensionnement de champs pétrolifères, de simulation de réaction nucléaire ou de tenue structurale d’un avion. Traiter cette masse de données dans des temps raisonnables nécessite : Des infrastructures matérielles adaptées à la fois pour effectuer les calculs (serveurs de calcul HPC), pour stocker les données et faire transiter les donner entre les processeurs et les espaces de stockage. Des infrastructures logicielles pour administrer les infrastructures matérielles et optimiser leur utilisation (soumission des calculs, visualisation à distance, Essais & Simulations • JUIN 2014 • PAGE 38
Forum Teratec Essais et Modelisation Sogeti High Tech et le HPC Dans la course à la simulation numérique, Sogeti High-Tech, grâce d’une part à son positionnement fort sur la simulation et d’autre part avec son expérience sur des thématiques HPC pour des acteurs majeurs (Airbus, CEA, Total, CNES…) possède les compétences pour garantir la pérennité et l’efficacité du parc applicatif des outils de simulation au regard des infrastructures HPC existantes. Même si Sogeti High-Tech est clairement positionnée sur la partie applicative du HPC, elle sait également répondre globalement aux problématiques de ses clients. Sogeti High Tech peut en effet s’appuyer sur l’apport du groupe (Sogeti) et des partenaires en dehors du groupe, en particulier grâce à l’alliance IBM. Sogeti High-Tech est également membre de l’association Ter@tec dont le but est de promouvoir l’usage du HPC. Total – Audit, architecture et maintenance des outils simulation géoscience : préconisation et implémentation d’un supervisuer de jobs, maintenance des codes de calculs gestion des droits d’utilisation, gestion des licences, monitoring…) Des applications de simulation conçues pour exploiter au mieux les infrastructures existantes Ces trois éléments constituent l’écosystème du HPC qui fournit l’ensemble des moyens pour une simulation numérique efficace. L’efficacité à traiter un problème de simulation est grandement liée au nombre d’« opérations à virgule flottante par seconde » (FLOPS) réalisées par le calculateur. Pour fixer quelques ordres de grandeurs : En 1964, la barre du mégaFLOPS (106 FLOPS) a été franchie par le superordinateur américain Control Data 6600. En 1985, la barre du gigaFLOPS (109 FLOPS) a été franchie par le superordinateur américain Cray-2. En 1997, la barre du téraFLOPS (1012 FLOPS) a été franchie par le superordinateur américain ASCI Red . En 2008, la barre du pétaFLOPS (1015 FLOPS) a été franchie par le superordinateur américain Roadrunner. Le passage à l’exascale est attendu dans moins d’une décennie, ce qui engendrera une rupture radicale. Maitriser les techniques du calcul parallèle Initialement, l’augmentation de la puissance de calcul était obtenue par augmentation de la fréquence d’horloge des microprocesseurs. Ce schéma de progression s’est rapidement heurté aux limites énergétiques et de dissipation de chaleur nécessaire (la puissance nécessaire grandissant comme le cube de la fréquence). Désormais, les fréquences commercialisées plafonnent entre 1 et 5 Ghz. Mais la performance continue d’augmenter grâce à l’utilisation simultanée de plusieurs cœurs de calculs en parallèle. Ainsi, nous sommes passés d’une performance individuelle à une performance collective voire de masse. Pour traduire ce changement au quotidien, prenons l’exemple des ordinateurs individuels. Il y a quelques années, les fabricants indiquaient avec fierté la fréquence des processeurs utilisés sur des stickers. De nos jours, cette information a disparu et a été remplacée par le nombre de cœurs présents (CoreDuo, Core i5…) dans la machine. Le changement d’architecture matérielle a un fort impact sur la façon de concevoir et de développer les applications de simulation. L’utilisation optimale des ressources matérielles par les logiciels nécessite de maitriser les techniques du calcul parallèle. De même que la gestion des personnes sur un projet de grande taille nécessite une forte gestion de projet, l’ordonnancement des calculs sur plusieurs cœurs nécessite une attention particulière : transmettre la bonne donnée au bon moment aux processeurs, démarrer un calcul quand le résultat d’un autre est obtenu, … Dans le HPC comme dans la vie, la parallélisation a ses limites : « Neuf femmes ne font pas un enfant en un mois ! ». L’enjeu pour la simulation est désormais de penser parallèle dès la conception des codes de calcul quitte à remettre en cause certaines méthodes de résolution. Dans ce contexte où la masse de données à traiter ne cesse d’augmenter et où son traitement est de plus en plus distribué physiquement, l’un des principaux enjeux est le déplacement de la donnée : que ce soit vers les processeurs, vers les espaces de stockage, vers les serveurs de calcul. EDF – Audit et architecture : analyse d’architecture de supervision d’une chaîne neutronique, étude de faisabilité et préconisations Essais & Simulations • JUIN 2014 • PAGE 39
Loading...
Loading...
Loading...
Retrouvez-nous sur les réseaux sociaux
LinkedIn
Twitter
Facebook