dernieres modifs

This commit is contained in:
Laureηt 2023-09-06 22:53:29 +02:00
parent 11ae97260b
commit 3f07274b19
Signed by: Laurent
SSH key fingerprint: SHA256:kZEpW8cMJ54PDeCvOhzreNr4FSh6R13CMGH/POoO8DI

View file

@ -247,7 +247,9 @@ Plusieurs méthodes pour faire dla diffusion, \
la + simple d'entre elles c'est DDPM. \ la + simple d'entre elles c'est DDPM. \
Le principe, apprendre mapping entre données et gaussienne isotropique. Le principe, apprendre mapping entre données et gaussienne isotropique.
Ce mapping apprendre via réseau débruiteur (denoising). \ Plus exactement, apprendre mapping inverse car, \
Pour passer données à gaussienne on ajoute juste du bruit, \
Pour process inverse, approximer réseau débruiteur (denoising). \
Pour se faire (algo 1), \ Pour se faire (algo 1), \
on prend une de nos données (x0), \ on prend une de nos données (x0), \
on la bruite (xt), \ on la bruite (xt), \
@ -255,7 +257,8 @@ on la donne notre réseau, on récupère la prédiction (eps_theta), \
on opti le réseau à prédire le bruit que l'on a ajouté (eps). on opti le réseau à prédire le bruit que l'on a ajouté (eps).
Convergence atteinte, \ Convergence atteinte, \
on est capable de débruiter des données. on est capable de débruiter des données, \
(plusieurs étape, itérativement)
Intéressant lorsqu'on part d'un bruit blanc (xT), \ Intéressant lorsqu'on part d'un bruit blanc (xT), \
et que l'on demande quand même au réseau de débruiter. \ et que l'on demande quand même au réseau de débruiter. \
@ -282,7 +285,8 @@ et génère finalement nouvelle donnée même distrib de celles qu'il a apprises
On peut l'appliquer à nos aubes, On peut l'appliquer à nos aubes,
example du forward process sur une aube 3D, \ example du forward process sur une aube 3D, \
(subsample 2048 points et normalisé donc un peu applati), \ (subsample 2048 points et normalisé donc un peu applati), \
à la fin on obtient truc qui ressemble à une gaussienne. à la fin on obtient truc qui ressemble à une gaussienne. \
(mapping discret, ici 100 pas de temps).
Ce genre de données input réseau capable traiter des pointcloud, \ Ce genre de données input réseau capable traiter des pointcloud, \
comme par exemple un réseau basés sur des KPConvs, \ comme par exemple un réseau basés sur des KPConvs, \
@ -353,16 +357,13 @@ mais meilleurs méthodes depuis 2020.
<a href="https://arxiv.org/abs/2112.10752" class="absolute bottom-0 font-extralight mb-1 mr-2 right-0 text-xs">arxiv:2112.10752</a> <a href="https://arxiv.org/abs/2112.10752" class="absolute bottom-0 font-extralight mb-1 mr-2 right-0 text-xs">arxiv:2112.10752</a>
<!-- <!--
Présentation des LDM qui permettent de traiter plus efficacement nos données. auteur du papier observent que si prend x0, \
et que pour tout t allant de 0 a T, \
calcul RMSE (distortion) + Rate (KLD reverse process et approx), \
et que l'on trace RMSE fonction de Rate, \
on obtient ceci.
Part du constat que si l'on trace pour t, \ Interprétaion, deux zones dans processus diffusion, \
l'erreur de reconstruction (RMSE, distortion) en fonction de t, \
(on prend x_0, on le bruite x_t, on prédit x_0_hat, pour chaque t), \
le Rate (issue de l'ELBO, une KLD) en fonction de t, \
(KLD=#bits nécéssaire pour passer de P à Q), \
on combine les deux pour avoir distortion en fonction de rate. \
On observe qu'on a deux domaine dans le processus de diffusion, \
un domaine nécéssite bcp de bits et encode peu de distortion, \ un domaine nécéssite bcp de bits et encode peu de distortion, \
l'autre inverse, peu bits, bcp de distortion, \ l'autre inverse, peu bits, bcp de distortion, \
donc un peu du gachi de réseau neurone le perceptuel, \ donc un peu du gachi de réseau neurone le perceptuel, \
@ -373,9 +374,8 @@ Espace latent sont une possibilité, \
utilisation, par ex, d'autoencoder, qui s'occuper du perceptuel, \ utilisation, par ex, d'autoencoder, qui s'occuper du perceptuel, \
la diffusion préoccupe que du semantic. \ la diffusion préoccupe que du semantic. \
Ça revient à modifier la pipeline de diffusion comme suit: Ça revient à modifier la pipeline de diffusion comme suit: \
avantage, latent space petit, donc modèl, petit, simple, rapide...
avantage, latent space plus petit, donc modèle plus petit, simple, rapide...
--> -->
--- ---
@ -414,11 +414,12 @@ pas besoin méthode reconstruction dans ce cas.
<!-- <!--
Jusqu'à présent, avec tout ce que j'ai dit, \ Jusqu'à présent, avec tout ce que j'ai dit, \
capable de générer des données ressemble certaine densité proba. \ capable de générer des données ressemble données d'entrée. \
(non conditionné) (non conditionné)
Cependant on veut générer données ressemblent densité proba jointe avec classe. \ Cependant on veut générer données ressemblent données d'entrée specifiques. \
(conditionné). On pourrait très bien entrainer un modèle par classe, \
mais c'est long et en plus nous on a pas de classes discète.
Il existe plusieurs méthode pour faire cela, \ Il existe plusieurs méthode pour faire cela, \
l'un d'entre elle etant cfg. l'un d'entre elle etant cfg.
@ -428,10 +429,6 @@ prédiction non conditionnée et conditionnée.
On complexifie un peu plus l'apprentissage, \ On complexifie un peu plus l'apprentissage, \
mais sampling pouvoir choisir quel densité de proba on veut gen. mais sampling pouvoir choisir quel densité de proba on veut gen.
On pourrait très bien entrainer un modèle par classe, \
mais c'est long et en plus nous on a pas de classes discète, \
là on fait tout en même temps...
--> -->
--- ---