<h2class="opacity-50"style="font-size: 2rem;">Projet de Fin d'Étude</h2>
<h1style="font-size: 2.4rem; line-height: normal;">Modèles génératifs pour la représentation latente d'aubes 3D sous forme de maillages non structurés</h1>
Lors de mon stage j'ai fait partie d'une équipe de Safran Tech qui est le département recherche de Safran qui explore de nouveaux procédés pour les nouvelles générations de moteurs...
Dans mon cas j'ai donc travaillé sur l'amélioration des aubes, qui sont un peu se genre de pales, mais à l'intérieur du moteur (non visible ici, dans le compresseur.
Donc on travaille avec un maillage qui est un graphe, mais connectivité assez "locales" (voisins proches dans l'espace) donc dans la suite des travaux on va souvent utiliser seulement le nuage de points.
Ça nous arrange en plus, car connectivité des maillages trop complexe à prédire (quadratique), et y'a des techniques pour reconstruire la surface juste à partir des points (ça marche plus ou moins bien, il faut souvent bcp de points)
On aurait aussi pu imaginer travailler directement sur la CAO de ces aubes, mais c'est bcp plus complexe car représentation d'une objet pas unique via CAO, et zero littérature.
Donc nous ce qu'on veut c'est générer des trucs qui ressemblent à rotor37. pour ça on peut utiliser des modèles génératifs.
Les modèles génératifs c'est pas nouveaux, si on souhaite trouver une aube qui respecte un certaine critère de performance par exemple pour un nouveau moteur, une méthode simple et largement déjà utiliser c'est "l'exploration d'un espace paramètre" (un peu comme un sweep d'hyperparamètres en deep learning).
Si on suppose qu'on a une CAO (construction d'une aube avec des objets primitifs) sous la main paramétrisé (par l'angle d'attaque, hauteur, largueur, ...). On peut échantilloner, passer sous simu, relever les perfs, à partir résultats rajouter des points, répéter...
Inconvénient, c'est long, à cause de la simu, et si on veut optimiser un autre paramètre on peut pas trop réutiliser ce qu'on à là. En plus nous on voudrait être capable d'avoir le processus inverse (perf -> aube)
Solution: balancer des réseaux de neurones là dedans et voir si ça marche. Y'a globalement 4 grosses familles de modèles génératifs (gan, vae, nf, dm).
L'objectif de ces modèles se ressemblent un peu tous. Dans les trois premiers, on veut apprendre à génerer distrib x' qui ressemble très fortement à x.
Formelement pendant entrainement on veut apprendre l'identité, mais particularité dans l'archi, par exemple dans vae on passe (généralement) par un goulot d'étranglement qu'on appelle espace latent, ou GAN on a une architecture adversarial, etc.
La famille qui nous interesse le plus ici c'est les modèles de diffusion, récent et potentiel. Le principe c'est de trouver un processus réversible et discret entre notre distribution de données et une autre distribution qu'on connait parfaitement mathématiquement (qu'on sait sampler sans soucis).
Il existe plusieurs méthodes pour faire de la diffusion, la plus simple d'entre elles c'est DDPM. Le principe de cette méthode c'est d'apprendre un mapping réversible entre nos données et une gaussienne isotropique.
Ce mapping on va l'apprendre par l'intermédiaire d'un réseau débruiteur (c'est le d de denoising). Pour se faire (algo 1) on prend une de nos données (x0), on la bruite (xt), on la donne notre réseau, on récupère la prédiction (eps_theta) de notre réseau, qu'on utilise ensuite pour optimiser le réseau à prédire le bruit que l'on a ajouté (eps).
Une fois le réseau entrainé, on est capable de débruiter des données. Le plus intéressant c'est lorsque que l'on part d'un bruit blanc (xT) et que l'on demande quand même au réseau de débruiter. Le réseau se met à halluciner des informations là où y'en a pas, et génère finalement une nouvelle donnée qui se rapproche très fortement de celles qu'il a apprises. (algo 2)
voila un example du forward process sur une aube 3D (ici subsample 2048 points et normalisé donc un peu applati)
on observe bien qu'à la fin on obtient bien quelque chose qui ressemble à une gaussienne
donc ce genre de données on peut les donner à un réseau capable de traiter des nuages de points, comme par exemple un réseau basés sur des kpconvss, ou un réseau qui travaille directement sur les points comme PointNet, ou un réseau qui travaille sur une représentation en voxel de nos points, etc. (cf rapport)
Si on effectue le reverse process, on voit que le nuage de point gaussien au départ ressemble de plus en plus progressivement à une aube.
Le résultat (ici kp-fcnn) est pas mal, mais pas ouffissime car il reste une bonne quantité de bruit (bonne chance pour reconstruire la surface là), surement améliorable si on trouve de meilleurs hyperparmètres, mais on peut faire mieux.
LDM part du principe que c'est plus efficace de travailler sur les informations latentes des données plutot que directement sur les données. Y'a toute une série de travaux sur la représentivité des réuseaux de neurones qui le prouve (un peu empiriquement).
Et ce genre d'avantage on le voit sur figure de gauche. Nos distributions de données sont généralement divisée en deux partie si l'on regarde la quantité d'information nécéssaire à la construction d'un échantillon. On a la partie semantic, très peu d'info, grande variations, et la partie perceptuelle, bcp d'info, traite les détails.
Les espaces latents permettent de travailler uniquement sur semantic. Pour ça, tout ce qu'on fait c'est rajouter (généralement) un VAE en amont du modèle de diffusion pour permettre de passer de nos données à leurs représentation latente et inversement.
Dans notre cas, puisque la structure des données s'y porte bien (bien régulière, noeuds tous dans le même ordre, ...) on peut se passer d'un VAE et utiliser une PCA pour obtenir un espace latent. Ça a l'avantage d'être non paramétrique, leger et rapide, mais l'inconvenient d'être spécialisé sur un jeu de données (ce qui n'est pas super grave dans le cadre industriel
jusqu'à présent avec tout ce que j'ai dit, on est capable de générer des données qui ressemble à une certaine densité de probabilité x. Cependant couramment on veut générer des données qui ressemble à un sous ensemble de données (x,y) avec y la classe de x. On appelle ça le conditionnement.
Il existe plusieurs méthode pour faire cela, l'un d'entre elle etant cfg. Le principe c'est d'entrainer notre réseau de diffusion conjointement à la prédiction non conditionnée et conditionnée. Jusque là rien de spécial on complexifie un peu plus l'apprentissage, mais lors de l'échantillonage on va pouvoir choisir quel type de données on souhaite générer.
Et donc si on applique nos diffusion latente via une PCA, on obtient ceci. Un nuage de point de très bonne qualité (on a plus tout le bruit qu'on avait avec kpconv), et en bonus grâce à la pca, on peut appliquer la connectivité de l'aube nominale à notre génération pour obtenir une surface (pas besoin de méthode de reconstruction).
Problème, on est incapable de voir visuellement la différence entre une aube conditionné, là par exemple toutes ces aubes sont conditonnés sur le même critère physqiue, et ça se voit pas trop. Une solution ça serait de passer nos générateurs dans le simu, mais trop long. Donc on va utiliser des modèles de regression.
Figure du haut, on conditionne selon out_massflow, on le fait varier entre -2 et 2 (visible dans le titre) et si on regarde la distribution des prédictions on observe que ça suit bien le conditonnement.
Figure du bas, on fait pareil pour l'isentropic_efficiency, mais entre -3 et 3. Une fois de plus c'est bien, même dans les zones où y'a pas beaucoup de points (aux extremités).
La figure du bas, montre comment on peut régler le conditionnement, on peut faire varier la guidance gamma, et donc on observe la distribution se concentrer progressivement.