abbrev plurals
This commit is contained in:
parent
bc066ad09e
commit
9a23fcf063
|
@ -97,16 +97,16 @@
|
||||||
\newacronym{relu}{ReLU}{Rectified Linear Unit}
|
\newacronym{relu}{ReLU}{Rectified Linear Unit}
|
||||||
\newacronym{mlp}{MLP}{Multi-Layer Perceptron}
|
\newacronym{mlp}{MLP}{Multi-Layer Perceptron}
|
||||||
|
|
||||||
\newacronym{cfd}{CFD}{Computational Fluid Dynamics}
|
\newacronym{cfd}{CFD}{Computational Fluid Dynamic}
|
||||||
\newacronym{cnn}{CNN}{Convolutional Neural Network}
|
\newacronym{cnn}{CNN}{Convolutional Neural Network}
|
||||||
\newacronym{pvcnn}{PVCNN}{Point-Voxel CNN}
|
\newacronym{pvcnn}{PVCNN}{Point-Voxel CNN}
|
||||||
|
|
||||||
\newacronym{gnn}{GNN}{Graph Neural Networks}
|
\newacronym{gnn}{GNN}{Graph Neural Network}
|
||||||
\newacronym{gan}{GAN}{Generative Adversarial Network}
|
\newacronym{gan}{GAN}{Generative Adversarial Network}
|
||||||
\newacronym{ae}{AE}{Auto-Encoder}
|
\newacronym{ae}{AE}{Auto-Encoder}
|
||||||
\newacronym{vae}{VAE}{Variational Auto-Encoder}
|
\newacronym{vae}{VAE}{Variational Auto-Encoder}
|
||||||
|
|
||||||
\newacronym{nf}{NF}{Normalizing Flows}
|
\newacronym{nf}{NF}{Normalizing Flow}
|
||||||
|
|
||||||
\newacronym{kld}{KLD}{Kullback-Leibler Divergence}
|
\newacronym{kld}{KLD}{Kullback-Leibler Divergence}
|
||||||
\newacronym{hd}{HD}{Haussdorf Distance}
|
\newacronym{hd}{HD}{Haussdorf Distance}
|
||||||
|
@ -672,7 +672,7 @@ En complément de ma recherche bibliographique, j'ai consacré du temps à teste
|
||||||
|
|
||||||
% parler du fait que pytorch geometric à facilité un peu la tache d'implem
|
% parler du fait que pytorch geometric à facilité un peu la tache d'implem
|
||||||
|
|
||||||
L'une de nos premières initiatives a été de tester des réseaux basés sur les \glspl{vae}. Après avoir lu des articles de recherche sur les \glsglspl{vae}, j'ai réalisé plusieurs implémentations sur des images pour me familiariser avec ces concepts. Nous avons ensuite étendu ces expérimentations à des architectures spécifiques aux graphes. Les résultats obtenus étaient encourageants: le réseau était capable de générer des structures, mais la qualité des générations n'était pas exceptionnelle. De plus, nous avons constaté que le réseau était beaucoup trop volumineux par rapport à sa fonctionnalité.
|
L'une de nos premières initiatives a été de tester des réseaux basés sur les \glspl{vae}. Après avoir lu des articles de recherche sur les \glspl{vae}, j'ai réalisé plusieurs implémentations sur des images pour me familiariser avec ces concepts. Nous avons ensuite étendu ces expérimentations à des architectures spécifiques aux graphes. Les résultats obtenus étaient encourageants: le réseau était capable de générer des structures, mais la qualité des générations n'était pas exceptionnelle. De plus, nous avons constaté que le réseau était beaucoup trop volumineux par rapport à sa fonctionnalité.
|
||||||
|
|
||||||
En effet, dans le contexte des graphes, les opérations de "upsampling" n'existent pas de manière directe. Par conséquent, nous avons rencontré des difficultés lors du passage du vecteur latent (représentant une distribution gaussienne) à une représentation sous forme de graphe (noeuds + connectivité) dans le décodeur du \gls{vae}.
|
En effet, dans le contexte des graphes, les opérations de "upsampling" n'existent pas de manière directe. Par conséquent, nous avons rencontré des difficultés lors du passage du vecteur latent (représentant une distribution gaussienne) à une représentation sous forme de graphe (noeuds + connectivité) dans le décodeur du \gls{vae}.
|
||||||
|
|
||||||
|
|
Loading…
Reference in a new issue