diff --git a/assets/gp_guidance.gif b/assets/gp_guidance.gif index c600849..0f35352 100644 --- a/assets/gp_guidance.gif +++ b/assets/gp_guidance.gif @@ -1,3 +1,3 @@ version https://git-lfs.github.com/spec/v1 -oid sha256:80d1cc5c98737f04599857b22ff5cb298ec5eba4aa3100347a71565375c6a8a7 -size 592556 +oid sha256:186d09c04e0b2a08bdfe1e8ab4ebf1ca13af16c1fc52a0a8e568072c29fcf3b2 +size 192084 diff --git a/assets/result_points_variations.gif b/assets/result_points_variations.gif new file mode 100644 index 0000000..8512176 --- /dev/null +++ b/assets/result_points_variations.gif @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:a99fcacc935b48ce7e4e210d73bca694ac42a5589111fd5bd32fd08a649c3b2e +size 8588963 diff --git a/assets/result_surface_variations.gif b/assets/result_surface_variations.gif new file mode 100644 index 0000000..bb224dc --- /dev/null +++ b/assets/result_surface_variations.gif @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:14eae91a09f71f967ac268b1734a594c4d291402d00cad634b9d08145f64f426 +size 3618479 diff --git a/slides/slides.md b/slides/slides.md index 7ab4893..13eb6ec 100644 --- a/slides/slides.md +++ b/slides/slides.md @@ -2,7 +2,8 @@ theme: academic class: text-white coverAuthor: Laurent Fainsin -coverBackgroundUrl: https://git.fainsin.bzh/ENSEEIHT/projet-fin-etude-rapport/media/branch/master/assets/aube.jpg +coverBackgroundUrl: >- + https://git.fainsin.bzh/ENSEEIHT/projet-fin-etude-rapport/media/branch/master/assets/aube.jpg coverBackgroundSource: Safran Media Library coverBackgroundSourceUrl: https://medialibrary.safran-group.com/Photos/media/179440 coverDate: '2023-09-07' @@ -12,12 +13,19 @@ themeConfig: paginationPagesDisabled: - 1 title: Projet de fin d'étude +download: true ---

Projet de Fin d'Étude

Modèles génératifs pour la représentation latente d'aubes 3D sous forme de maillages non structurés

+ + --- ## Sommaire @@ -37,7 +45,7 @@ title: Projet de fin d'étude --- @@ -87,15 +95,17 @@ Dans mon cas j'ai donc travaillé sur l'amélioration des aubes, qui sont les pa --- @@ -109,11 +119,11 @@ Donc nous ce qu'on veut c'est générer des trucs qui ressemblent à rotor37. po Les modèles génératifs c'est pas nouveaux, si on souhaite trouver une aube qui respecte un certaine critère de performance par exemple pour un nouveau moteur, une méthode simple et largement déjà utiliser c'est "l'exploration d'un espace paramètre" (un peu comme un sweep d'hyperparamètres en deep learning). -Si on suppose qu'on a une CAO (construction d'une aube avec des objets primitifs) sous la main paramétrisé (par l'angle d'attaque, hauteur, largueur, ...). On peut échantilloner, passer sous simu, relever les perfs, interpoler, trouver des endroits interessants à explorer, échantilloner de nouveaux paramètres, répéter... +Si on suppose qu'on a une CAO (construction d'une aube avec des objets primitifs) sous la main paramétrisé (par l'angle d'attaque, hauteur, largueur, ...). On peut échantilloner, passer sous simu, relever les perfs, à partir résultats rajouter des points, répéter... À la fin, on a normalement au moins une aube qui nous convient. -Inconvénient, c'est long, à cause de la simu, et si on veut optimiser un autre paramètre on peut pas trop réutiliser ce qu'on à là. +Inconvénient, c'est long, à cause de la simu, et si on veut optimiser un autre paramètre on peut pas trop réutiliser ce qu'on à là. En plus nous on voudrait être capable d'avoir le processus inverse (perf -> aube) --> --- @@ -127,9 +137,11 @@ Inconvénient, c'est long, à cause de la simu, et si on veut optimiser un autre --- @@ -141,17 +153,17 @@ La famille qui nous interesse le plus ici c'est les modèles de diffusion, le pl -

+

arxiv:2006.11239, CVPR 2022 Diffusion Tutorial

--- @@ -203,12 +215,13 @@ Le résultat (ici kp-fcnn) est pas mal, mais pas ouffissime car il reste une bon arxiv:2112.10752 --- @@ -225,7 +238,7 @@ Autre amélioration ! jusqu'à présent avec tout ce que j'ai dit, on est capable de générer des données qui ressemble à une certaine densité de probabilité x. Cependant couramment on veut générer des données qui ressemble à un sous ensemble de données (x,y) avec y la classe de x. On appelle ça le conditionnement. -Il existe plusieurs méthode pour faire cela, la plus performante d'entre elles étant la cfg. Le principe c'est d'entrainer notre réseau de diffusion conjointement à la prédiction non conditionnée et conditionnée. Jusque là rien de spécial, mais lors de l'échantillonage ça nous permet de faire une interpolation linéaire entre une prédiction non condtionnée et conditonnée pour guider la génération. +Il existe plusieurs méthode pour faire cela, l'un d'entre elle etant cfg. Le principe c'est d'entrainer notre réseau de diffusion conjointement à la prédiction non conditionnée et conditionnée. Jusque là rien de spécial on complexifie un peu plus l'apprentissage, mais lors de l'échantillonage on va pouvoir choisir quel type de données on souhaite générer. --> --- @@ -238,9 +251,21 @@ Il existe plusieurs méthode pour faire cela, la plus performante d'entre elles -Problème, on est incapable de voir visuellement la différence entre une aube conditionné avec efficacité à 2 et une aube efficacité à 10. Une solution ça serait de passer nos générateurs dans le simu, mais trop long. Donc on va utiliser des modèles de regression. +--- + +## Résultats + +
+ + +
+ + --- @@ -257,9 +282,11 @@ Problème, on est incapable de voir visuellement la différence entre une aube c Distill --- @@ -272,11 +299,9 @@ Les GP c'est des méthodes à noyau, probibilitiques. On a entre autre l'avantag --- @@ -289,7 +314,7 @@ q2 = r2 = Coefficient de détermination --- @@ -327,7 +352,7 @@ Figure du bas, on conditionne sur deux trucs en même temps, ça marche plutot b ### Axes d'amélioration -- Vérifier le conditonnement par simulation CFD +- Vérifier le conditionnement par simulation CFD - Remplacer la PCA par une méthode paramétrique - Travailler directement sur les CAOs - Tester des méthodes par RL @@ -366,7 +391,7 @@ Figure du bas, on conditionne sur deux trucs en même temps, ça marche plutot b --- -