Views
9 months ago

Essais & Simulations n°104-105

  • Text
  • Virtual
  • Imulations
  • Ssais
  • Octobre
  • Mesure
  • Novembre
  • Simulation
  • Vibration
  • Contraintes
  • Essais
Dossier : Essais virtuels

Essais

Essais virtuels Virtualisation des essais CEM en phase amont Des essais de validation plus robustes Des taux de réussite améliorés et la transversalité d’exploitation optimisée Nous discutons dans cet article de l’apport des moyens virtuels dans la maîtrise de la compatibilité électromagnétique des systèmes complexes. Ces techniques peuvent permettre de relier les approches au niveau équipement aux performances attendues au niveau système, et de justifier précisément de la déclinaison des contraintes. Mots-clés CEM systèmes, CEM équipements, virtualisation, analyse tensorielle des réseaux, invariances. Encore trop souvent, des projets partent en essais de validation CEM alors qu’aucune étude amont de leur système n’a été menée. Partant de règles métier, supposant les résultats précédents sur une électronique proche conservés ou convaincus d’une faible variabilité du hardware sans impact sur les performances CEM, les chefs de projets sont très surpris pour ne pas dire désemparés lorsque les résultats de nonconformité tombent comme une catastrophe. Pourtant, on dispose aujourd’hui de techniques avancées pour prévoir ces risques et trouver des leviers tout autant que pour concevoir des produits à même de couvrir les exigences de façon transversale pour plusieurs cibles client. On se propose dans cet article de discuter des difficultés inhérentes à la sous-traitance des composants pour un système et de l’apport de la virtualisation amont pour répondre à cet objectif. On présente plus particulièrement l’apport potentiel de la théorie tensorielle des réseaux pour couvrir les besoins d’outils socles mathématiques afin de développer les outils futurs. Le concept de “virtualisation” On peut discerner 3 mondes : le monde réel, le monde théorique et le monde virtuel. Le premier est le monde des expérimentations concrètes, le second regroupe les modèles physiques et mathématiques sur lesquels se basent les calculs et les modélisations du monde réel, le troisième est le monde des simulations ou des calculs numériques. Il est essentiel de discerner les 2 notions de simulation et modélisation avant de parler du concept de virtualisation. “ ” Le calcul est potentiellement capable de modéliser la simplexité. La simulation, comme son nom l’indique, est l’action qui consiste à simuler le fonctionnement d’une électronique, c’est-àdire « faire paraître comme réel quelque chose qui ne l’est pas » (1) . Pour la CEM, la simulation consiste en l’emploi soit de logiciels numériques qui résolvent les équations de Maxwell, soit de fonctions qui sont autant de macromodèles reliés en chaîne. Ces simulations, qui s’appuient sur des modèles théoriques, tentent de présenter un ensemble de caractères semblables au système simulé. Par définition, la similitude n’est pas parfaite, sans quoi cela signifierait que l’on reproduit le système réel (seul un système identique serait similaire en tout point y compris géométrique, photométrique, etc.), mais elle est suffisamment identique sur un domaine borné pour pouvoir, sur ce domaine, ressembler en tout point au système simulé. La modélisation est l’action qui consiste à créer ou disposer d’expressions mathé- matiques basées sur les lois de la physique et de la chimie pour représenter le comportement d’un système en courbes ou graphes. On trace ainsi dans l’espace des phases la trajectoire d’un solide en mécanique, comme on calcule la trajectoire des planètes en astronomie. Ces tracés sont extraits de variables présentes dans des équations de la physique qui sont autant de modèles du monde réel. La virtualisation est l’action de créer un programme (ou un ensemble de programmes) informatiques qui vont représenter numériquement, par le biais d’images de synthèse ou de tracés de graphes, voire d’actionneurs sensibles (capteurs, hautparleurs…), le fonctionnement d’un système. Pour atteindre cette représentation, le monde virtuel s’appuie sur les équations analytiques des modèles physiques du système “virtualisé”. D’excellents exemples de mondes virtuels sont les jeux comme le golf. L’utilisateur paramètre les données d’entrée (puissance du coup, direction, etc.) et le logiciel calcule par les équations de la dynamique la trajectoire de la balle. Ensuite, un écran permet de suivre l’image de cette balle comme celle que l’on aurait pu voir dans la réalité. La réalité virtuelle ici ne cesse de progresser pour redonner l’illusion parfaite de cette visualisation. (1) Définition du Petit Larousse illustré, édition 2006. E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 16

Essais virtuels On peut se poser la question de l’intérêt d’une telle recherche, mais le sentiment de réalité contribue au réalisme concret de la virtualisation. Ce réalisme n’est d’ailleurs atteint que par la mise en œuvre de plusieurs métiers de la physique (ce que l’on référence souvent sous la dénomination “multiphysique”). Ainsi, aussi réaliste que puisse paraître l’image d’un plat, elle ne provoquera la sensation de réel que si elle s’accompagne des odeurs correspondantes. Les difficultés de la virtualisation Le monde réel est beaucoup plus complet que le monde virtuel. Cette dimension se traduit par un ensemble de phénomènes physiques et de modèles liés mis en jeu infiniment plus grand que le monde virtuel. Les codes de simulation sont basés sur des méthodes numériques aux limites précises. Ces limites sont à la fois des limites sur les tailles simulables – et l’on sait aujourd’hui traiter des millions de données, sur les domaines de la physique pris en compte mais aussi sur les ruptures de modèles. Ce deuxième point est beaucoup plus difficile à traiter. Il signifie qu’une physique elle-même repose toujours sur plusieurs modèles définis sur des domaines connexes. Par exemple, une ligne en basses fréquences se modélise par 2 impédances, alors que dès que les phénomènes de propagation interviennent, son modèle nécessite 2 impédances additionnées d’une fonction de couplage. On aboutit toujours au constat que la simplicité des comportements utiles des systèmes est le résultat d’agencement de processus complexes. Et c’est cette simplexité (2) qui n’est pas réalisable par les codes de simulation. Cette incapacité provient de la conception de ces logiciels qui partent d’un maillage pour y projeter les équations à résoudre dans l’hypothèse que le macromonde est une simple construction de briques du micromonde. Or cette hypothèse trop simpliste ne considère pas l’existence de propriétés propres aux macro-objets. Ainsi, avec de l’oxygène et de l’hydrogène, on peut fabriquer de l’eau. Mais l’eau a ses propriétés propres que l’on ne retrouve pas dans chacun de ses composants séparés. En toute rigueur, on peut affirmer que le monde réel contient le monde virtuel – qui a sa propre réalité – mais que l’inverse est évidemment faux. C’est cette lacune de couverture qui conduit souvent à dire que les simulations “ne servent à rien”. Je vais essayer de démontrer qu’il n’en est rien, au contraire, et cela à 2 niveaux. D’une part, les réflexions de réduction de complexité qu’impose leur emploi assurent une maîtrise dans la conception du système qui permettra d’éviter les fausses interprétations en essais, de prédire les risques de nontenue aux exigences et les solutions associées et enfin de prédire les résultats pour des essais variés. D’autre part, on a peut-être abandonné trop vite l’idée que le calcul, intégrant des fonctions analytiques issues de lois physiques ou de régressions de simulations ou d’expérimentations locales (au sens qu’elles ne portent que sur une caractérisation d’une partie du système), élaboré sur un formalisme mathématique suffisamment puissant, pouvait constituer une nouvelle voie pour la virtualisation. Le calcul est potentiellement capable de modéliser la simplexité et l’on peut penser que les outils informatiques de demain utiliseront ces progrès dans la modélisation. Du découpage des problèmes en sous-problèmes simples Que ce soit pour concevoir un système ou interpréter des résultats d’expérimentations, l’ingénieur découpe le système en sous-fonctions élémentaires connectées entre elles par des pistes, des câbles ou des guides. Il comprend le fonctionnement du système connecté comme la simple réunion des sousfonctions devenues liées certes, mais restant indépendantes au niveau des caractéristiques électromagnétiques. Les effets d’interférences fortes ne sont pas intuitifs. Par exemple, un effet presque toujours oublié est celui de l’impédance ramenée. Lorsque l’on connecte un équipement à un autre, chaque équipement ne voit pas l’impédance de son voisin, mais la vue de cette impédance au travers de la ligne de liaison en fonction de sa longueur et de la rapidité des formes d’ondes. Dès que le spectre des signaux est un peu élevé, le découpage du système n’est plus trivial. Ainsi, les volontés de représentativité des configurations d’essais sont souvent mises à mal par la dure réalité des variations d’impédances. Il est fréquent que des “set-up” soient remplis de câbles extrêmement longs, enchevêtrés, incluant des bancs de tests avec des “impédances représentatives”. Mais ces démarches ne sont valables qu’en basses fréquences. Dès que la fréquence est assez haute, les différences de boîtiers, les cheminements différents des câblages font que l’impédance vue par l’équipement n’est de toute façon pas celle qu’il verra une fois installé sur le système réel. Pourtant, beaucoup sont convaincus de la crédibilité de ces approches pour n’avoir pas évalué la sensibilité des variations d’impédances en fonction des paramètres de hauteur, longueur et géométrie des interfaces. Évidemment, ces écarts sont exacerbés si l’on considère qu’en général, la connaissance exacte des circuits d’interfaces n’est présente que chez chaque concepteur d’équipement. Il faut se résoudre à l’idée que l’espoir de représentativité est vain, de même que les raisonnements intuitifs sont rarement corrects. La seule solution robuste consiste à caractériser chaque élément unitairement soit par l’intermédiaire de simulations, soit par des expérimentations spécifiques, puis de calculer le système résultant de connexions de ces éléments. L’analyse étape par étape de la constitution du système à partir de réseaux dits “primitifs” (sous-fonctions élémentaires) va permettre de bien comprendre ses comportements, de visualiser les signaux échangés, d’identifier les familles de signaux et de gérer les incertitudes. Car qu’elles que soient les approches, on dispose heureusement d’un invariant : les perturbations d’un système comme ses émissions dépendent des composants utilisés dans ses électroniques. C’est à partir de cet invariant que nous pourrons virtualiser la conception et définir les configurations en essais d’équipements, qui démontrent la tenue des exigences et les réponses aux besoins système. (2) Voir Simplexité d’Alain Berthoz chez Odile Jacob. E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 17

Essais et Simulations - Découvrez la revue en version digitale

Pour vous abonner, joindre la rédaction, communiquer dans la revue ou simplement avoir plus d'informations sur votre métier, rendez-vous sur notre site internet :

www.essais-simulations.com