diff --git a/slides/slides.md b/slides/slides.md index 7a121d9..c338925 100644 --- a/slides/slides.md +++ b/slides/slides.md @@ -247,7 +247,9 @@ Plusieurs méthodes pour faire dla diffusion, \ la + simple d'entre elles c'est DDPM. \ Le principe, apprendre mapping entre données et gaussienne isotropique. -Ce mapping apprendre via réseau débruiteur (denoising). \ +Plus exactement, apprendre mapping inverse car, \ +Pour passer données à gaussienne on ajoute juste du bruit, \ +Pour process inverse, approximer réseau débruiteur (denoising). \ Pour se faire (algo 1), \ on prend une de nos données (x0), \ on la bruite (xt), \ @@ -255,7 +257,8 @@ on la donne notre réseau, on récupère la prédiction (eps_theta), \ on opti le réseau à prédire le bruit que l'on a ajouté (eps). Convergence atteinte, \ -on est capable de débruiter des données. +on est capable de débruiter des données, \ +(plusieurs étape, itérativement) Intéressant lorsqu'on part d'un bruit blanc (xT), \ et que l'on demande quand même au réseau de débruiter. \ @@ -282,7 +285,8 @@ et génère finalement nouvelle donnée même distrib de celles qu'il a apprises On peut l'appliquer à nos aubes, example du forward process sur une aube 3D, \ (subsample 2048 points et normalisé donc un peu applati), \ -à la fin on obtient truc qui ressemble à une gaussienne. +à la fin on obtient truc qui ressemble à une gaussienne. \ +(mapping discret, ici 100 pas de temps). Ce genre de données input réseau capable traiter des pointcloud, \ comme par exemple un réseau basés sur des KPConvs, \ @@ -353,16 +357,13 @@ mais meilleurs méthodes depuis 2020. arxiv:2112.10752 --- @@ -414,11 +414,12 @@ pas besoin méthode reconstruction dans ce cas. ---