MRJ.Presse
Views
3 years ago

Essais & Simulations n°117

  • Text
  • Conception
  • Permet
  • Fabrication
  • Mesure
  • Calcul
  • Ainsi
  • Juin
  • Simulations
  • Simulation
  • Essais
La simulation, élément indissociable des essais

Forum Teratec

Forum Teratec Essais et Modelisation du Calcul Haute Performance. Le HPC étant une brique technologique à l'origine de la création de l’entreprise (alors dénommée HPC-Project), il demeure aujourd'hui le moteur des activités. La décision de s'installer sur le Campus Teratec a été prise dès le lancement de ce programme. SILKAN s'est installé effectivement sur le campus depuis février 2013, l’inauguration des locaux en présence des partenaires s’est déroulée le 6 novembre dernier, réunissant plus d’une centaine de participants. Que vous apporte le fait d'être sur le Campus dans votre activité ? La proximité avec le TGCC et le CEA DAM, et la présence sur le site de grandes entreprises et de PME innovantes du software et du hardware permettent à SILKAN de mieux développer ses solutions en relation avec le HPC et de nouer des relations avec ces partenaires en simulations complexes, parallélisassions de codes... Peut-on parler d'un écosystème ? Effectivement on peut parler d'écosystème car ce Campus représente la première technopole Européenne dédiée à la simulation et au Calcul hautes performances et qui regroupe des entreprises complémentaires impliquées dans le HPC. Cet écosystème est très ouvert, il suffit de voir le nombre et la variété d'entreprises adhérentes à Teratec et qui ne sont pas présentes sur le Campus. Tout cela est boosté par la présence du TGCC du CEA, l’un des plus gros centres de calcul d’Europe. Quelle place occupe aujourd'hui la France dans le domaine du HPC ? EN quoi Teratec joue-t-il un rôle majeur ? La France a toujours été bien placée dans le domaine du HPC. La course au calculateur le plus puissant fait rage et implique aujourd'hui, outre les pays occidentaux à la pointe dans le domaine (USA, France, Allemagne et Japon), des pays émergents comme la Chine, l'Inde, le Brésil et même l'Arabie Saoudite. Mais la France reste l'un des leaders incontestables quand à l'usage du HPC par les entreprises et les laboratoires de recherche. On assiste aujourd'hui au développement de nouvelles technologies (processeurs, bus et ordinateurs) qui donnent accès à des puissances de calcul phénoménales et qui nécessitent des efforts non négligeables pour développer les algorithmes et logiciels appropriés. C’est ce qui était d’ailleurs détaillé dans l’excellent rapport réalisé par Gérard Roucairol, président de Teratec et de l’Académie des Technologies pour le compte du Commissariat général aux investissements et à la Direction générale de la compétitivité, de l’industrie et des services (DGCIS), intitulé "La simulation haute performance au service de la compétitivité des entreprises". Ce rapport qui visait à renforcer et étendre l'usage de la simulation et du HPC en France est à l'origine du lancement par le Gouvernement français en octobre 2013 du programme "Calcul intensif et simulation numérique" doté d’un budget de plus 150M€. La parole à… un laboratoire Marie-Christine Sawley, directrice Intel du laboratoire Exascale Computing Research Essais & Simulations Présentez-vous en quelques mots ainsi que le positionnement du laboratoire Marie-Christine Sawley J’occupe la fonction de directrice Intel du laboratoire Exascale Computing Research, qui est actuellement en cours d’installation sur le Campus Teratec. Je suis arrivée chez Intel il y a trois ans et demi pour prendre en charge le laboratoire. J’ai soutenu ma thèse sur la physique des plasmas en 1985 et j’ai continué ma carrière en pilotant des projets de HPC, à a fois matériel et applicatifs. J’ai notamment dirigé le centre national (suisse) de calcul scientifique. Mon parcours lié au management de la recherche et de la technologie a motivé Intel à m’intégrer pour diriger ce laboratoire (qui rassemble quatre personnes du côté d’Intel) aux côtés de plusieurs partenaires. L’un d’eux est le laboratoire Parallélisme, réseaux, systèmes, modélisation (PRiSM) du Pr. William Jalby qui dépend de l’uni- Essais & Simulations • JUIN 2014 • PAGE 44

Forum Teratec Essais et Modelisation versité de Versailles Saint-Quentin-en- Yvelines (UVSQ) et rassemble le plus grand nombre de chercheurs avec une vingtaine de personnes travaillant avec nous. Le CEA est également partenaire d’Exascale Computing Research et travaille sur le développement d’infrastructures logicielles et sur de nombreux domaines d’application. Le Genci, groupe créé en 2006 pour rassembler les grands acteurs du calcul intensif (émanation de l’Agence nationale de la recherche (ANR) – NDLR) est le quatrième partenaire du laboratoire. Quel est le rôle de ce laboratoire ? Exascale a été fondé par les quatre partenaires évoqués précédemment il y a bientôt quatre ans. Son rôle est de mener conjointement des travaux pour mettre au point des outils et des méthodes permettant de mieux comprendre le comportement des applications sur nos architectures. Le laboratoire travaille également avec certaines applications du monde académique et industriel sur les technologies d’avenir. Le laboratoire se concentre sur les aspects logiciels de l’Exascale, à la fois au développement d’outils et méthodes pour caractériser la performance et rendre les applications plus efficaces, ainsi que sur certaines applications représentatives du monde de la simulation. Le laboratoire héberge des étudiants en master ainsi que des doctorants sur ces outils et ces méthodes afin de pouvoir les appliquer au mieux dans leur carrière par la suite dans l’industrie. Dans quel contexte Exascale a-t-il été créé ? Pour comprendre les raisons de sa création, il faut revenir en arrière. Les gains en puissance de calcul ont été obtenus sur les vingt dernières années en utilisant un nombre croissant de processeurs de plus en plus puissants (Loi de Moore) ; c’est ainsi que nous avons passé la barre du Petascale en 2008, gagnant six ordres de grandeur en vingt ans Avec l’exascale, nous allons franchir un nouveau cap en termes de puissance de calcul et de complexité des architectures, à un point tel que ces trois ordres de grandeur posent des problématiques qui deviennent aigues. Le premier d’entre eux est la consommation énergétique : l’ordinateur au sommet du TOP500 aujourd’hui consomme aux alentours de 17 mégawatts. On comprend dès lors que l’on a atteint une limite critique, fixée par les utilisateurs à 20 MW. Une autre problématique résidait dans la question du parallélisme massif ; auparavant, un superordinateur comprenait quelques centaines de cœurs de calcul. Aujourd’hui, c’est autour de 1 million de cœurs qui équipent les plus grandes machines. Comment explique-t-on cette hausse exponentielle des cœurs de calcul ? Tout simplement pour des applications de plus en plus complexes, en particulier dans l’industrie aéronautique (avec des simulations non plus au niveau d’un élément mais de l’appareil complet), le naval, l’automotive, l’astrophysique ou encore la science des matériaux ; ce dernier domaine de recherche a pris un essor extraordinaire ces quinze dernières années, avec des capacités de simulation multi-échelle allant depuis les atomes à des objets microscopiques. Il existe un domaine qui tient le calcul haute performance au cœur de son métier depuis bien longtemps, celui de la météorologie. Ce domaine de recherche bénéficie d’avancées significatives permettant aux chercheurs de calculer avec précision la vitesse du vent, la présence de nuages pouvant former de la grêle et tomber à tel ou tel endroit, à un moment bien déterminé. Cette modélisation permet une plus grande finesse des données et de les traiter en temps réel. Qu’apporte concrètement le laboratoire Exascale aux industriels ? Le monde de l’ingénierie (en particulier pour la conception de moteurs ou de turbines par exemple) a besoin de résolution importante et d’une précision extrême, exigeant dès lors des maillages de plus en plus fins. Les ingénieurs doivent en outre intégrer des phénomènes physiques de plus en plus complexes, associant les phénomènes thermiques et l’environnement de la pièce dans son ensemble. Enfin, ils sont demandeurs d’outils de simulation leur permettant de développer à moindre coût et en des temps réduits les prototypes nécessaires au développement de leurs produits. L’industrie pharmaceutique s’intéresse aussi de façon croissante à la simulation, notamment en biologie afin de mettre au point des molécules complexes. Celles-ci font ensuite l’objet d’opérations très fines de ciblage avant de procéder aux phases de tests in vitro. Nous travaillons en amont, sur des développements qui permettent de tester certains algorithmes ou méthodes sur nos processeurs actuels et de se préparer aux futures architectures qui offriront plus de parallélisme et d’hétérogénéité. Qu'est-ce qui a motivé le choix d'Intel de s'implanter sur le Campus Teratec ? Nous sommes toujours en cours d’installation. Bientôt, plus de vingt-cinq personnes y travaillent à temps plein. Nous menons aussi des collaborations « satellites » dans le cadre notamment de programmes européens. Nous prévoyons naturellement de nous impliquer dans des projets avec les autres membres de la communauté Teratec qui doit devenir un creuset d’idées nouvelles pour faire avancer le calcul scientifique d’une façon significative Propos recueillis par Olivier Guillon Essais & Simulations • JUIN 2014 • PAGE 45

Copied successfully!

Essais et Simulations - Découvrez la revue en version digitale

Pour vous abonner, joindre la rédaction, communiquer dans la revue ou simplement avoir plus d'informations sur votre métier, rendez-vous sur notre site internet :

www.essais-simulations.com