fix glossary and fancypages
This commit is contained in:
parent
b40a4b78b5
commit
8a8829616e
|
@ -16,7 +16,6 @@
|
||||||
\usepackage{bbold}
|
\usepackage{bbold}
|
||||||
\usepackage[numbers]{natbib}
|
\usepackage[numbers]{natbib}
|
||||||
\usepackage[french]{babel}
|
\usepackage[french]{babel}
|
||||||
\usepackage{glossaries}
|
|
||||||
\usepackage{nomencl}
|
\usepackage{nomencl}
|
||||||
\usepackage{caption}
|
\usepackage{caption}
|
||||||
\usepackage{placeins}
|
\usepackage{placeins}
|
||||||
|
@ -32,6 +31,10 @@
|
||||||
breaklinks = true,
|
breaklinks = true,
|
||||||
}
|
}
|
||||||
|
|
||||||
|
% must be loaded after hyperref
|
||||||
|
\usepackage{glossaries}
|
||||||
|
\renewcommand*{\glstextformat}[1]{\textcolor{black}{#1}}
|
||||||
|
|
||||||
% paragraph settings
|
% paragraph settings
|
||||||
\setlength{\parindent}{0cm}
|
\setlength{\parindent}{0cm}
|
||||||
\setlength{\parskip}{7pt}%
|
\setlength{\parskip}{7pt}%
|
||||||
|
@ -42,11 +45,21 @@
|
||||||
% header and footer settings
|
% header and footer settings
|
||||||
\usepackage{lastpage}
|
\usepackage{lastpage}
|
||||||
\usepackage{fancyhdr}
|
\usepackage{fancyhdr}
|
||||||
|
|
||||||
|
% normal pages
|
||||||
\pagestyle{fancy}
|
\pagestyle{fancy}
|
||||||
\renewcommand{\headrulewidth}{0pt}
|
|
||||||
\fancyhf{}
|
\fancyhf{}
|
||||||
\cfoot{}
|
|
||||||
\rfoot{\hypersetup{hidelinks}\thepage/\pageref{LastPage}}
|
\rfoot{\hypersetup{hidelinks}\thepage/\pageref{LastPage}}
|
||||||
|
\renewcommand{\headrulewidth}{0pt}% Line at the header invisible
|
||||||
|
\renewcommand{\footrulewidth}{0pt}% Line at the footer invisible
|
||||||
|
|
||||||
|
% chapter pages
|
||||||
|
\fancypagestyle{plain}{
|
||||||
|
\fancyhf{}
|
||||||
|
\rfoot{\hypersetup{hidelinks}\thepage/\pageref{LastPage}}
|
||||||
|
\renewcommand{\headrulewidth}{0pt}% Line at the header invisible
|
||||||
|
\renewcommand{\footrulewidth}{0pt}% Line at the footer invisible
|
||||||
|
}
|
||||||
|
|
||||||
\title{
|
\title{
|
||||||
\huge \textbf{Rapport de Projet de Fin d'Études}
|
\huge \textbf{Rapport de Projet de Fin d'Études}
|
||||||
|
@ -65,7 +78,6 @@
|
||||||
\DeclareMathOperator*{\argmax}{arg\,max}
|
\DeclareMathOperator*{\argmax}{arg\,max}
|
||||||
\DeclareMathOperator*{\argmin}{arg\,min}
|
\DeclareMathOperator*{\argmin}{arg\,min}
|
||||||
|
|
||||||
\newacronym{ssa}{Safran S.A.}{Safran Société Anonyme}
|
|
||||||
\newacronym{n7}{ENSEEIHT}{École nationale supérieure d'électrotechnique, d'électronique, d'informatique, d'hydraulique et des télécommunications}
|
\newacronym{n7}{ENSEEIHT}{École nationale supérieure d'électrotechnique, d'électronique, d'informatique, d'hydraulique et des télécommunications}
|
||||||
\newacronym{pfe}{PFE}{Projet de Fin d'Études}
|
\newacronym{pfe}{PFE}{Projet de Fin d'Études}
|
||||||
|
|
||||||
|
@ -115,6 +127,7 @@
|
||||||
\newacronym{gp}{GP}{Gaussian Process}
|
\newacronym{gp}{GP}{Gaussian Process}
|
||||||
|
|
||||||
\makenoidxglossaries
|
\makenoidxglossaries
|
||||||
|
% \makeglossaries
|
||||||
|
|
||||||
% \nomenclature{DDPM}{test}
|
% \nomenclature{DDPM}{test}
|
||||||
% \makenomenclature
|
% \makenomenclature
|
||||||
|
@ -138,7 +151,7 @@
|
||||||
\addcontentsline{toc}{chapter}{Remerciements}
|
\addcontentsline{toc}{chapter}{Remerciements}
|
||||||
}
|
}
|
||||||
|
|
||||||
Je tiens à remercier Xavier Roynard, Michel Alessandro Bucci et Brian Staber, mes tuteurs de stage, ainsi que les équipes de \gls{ssa} pour leur accueil et leur accompagnement tout au long de ce stage.
|
Je tiens à remercier Xavier Roynard, Michel Alessandro Bucci et Brian Staber, mes tuteurs de stage, ainsi que les équipes de Safran pour leur accueil et leur accompagnement tout au long de ce stage.
|
||||||
|
|
||||||
J'aimerais également remercier l'ensemble de mes professeurs de l'\gls{n7}, pour m'avoir permis d'acquérir les connaissances nécessaires à la réalisation de ce projet.
|
J'aimerais également remercier l'ensemble de mes professeurs de l'\gls{n7}, pour m'avoir permis d'acquérir les connaissances nécessaires à la réalisation de ce projet.
|
||||||
|
|
||||||
|
@ -164,6 +177,7 @@ J'aimerais également remercier l'ensemble de mes professeurs de l'\gls{n7}, pou
|
||||||
\hypersetup{hidelinks}
|
\hypersetup{hidelinks}
|
||||||
\addcontentsline{toc}{chapter}{Glossaire}
|
\addcontentsline{toc}{chapter}{Glossaire}
|
||||||
\printnoidxglossaries
|
\printnoidxglossaries
|
||||||
|
% \printglossaries
|
||||||
}
|
}
|
||||||
|
|
||||||
% {
|
% {
|
||||||
|
@ -183,6 +197,12 @@ J'aimerais également remercier l'ensemble de mes professeurs de l'\gls{n7}, pou
|
||||||
|
|
||||||
\chapter{Introduction}
|
\chapter{Introduction}
|
||||||
|
|
||||||
|
\section{Présentation de l'entreprise}
|
||||||
|
|
||||||
|
yoink un truc à Xavier, flemme de réécrire wikipedia
|
||||||
|
|
||||||
|
\section{Contexte du stage}
|
||||||
|
|
||||||
\begin{figure}[h]
|
\begin{figure}[h]
|
||||||
\centering
|
\centering
|
||||||
\includegraphics[width=16cm]{aube.jpg}
|
\includegraphics[width=16cm]{aube.jpg}
|
||||||
|
@ -218,9 +238,9 @@ Cependant, dans le cas de la simulation numérique, les données prennent souven
|
||||||
|
|
||||||
Différentes solutions ont été proposées dans la littérature pour réaliser des convolutions et agrégations sur graphes ou nuages de points. Cependant, peu d'entre elles conviennent à l'application des réseaux sur graphes sur des données générées par des simulations numériques, car l'ordre de grandeur du nombre de nœuds est généralement trop important.
|
Différentes solutions ont été proposées dans la littérature pour réaliser des convolutions et agrégations sur graphes ou nuages de points. Cependant, peu d'entre elles conviennent à l'application des réseaux sur graphes sur des données générées par des simulations numériques, car l'ordre de grandeur du nombre de nœuds est généralement trop important.
|
||||||
|
|
||||||
Le but de ce stage est d'évaluer le potentiel de ces nouvelles méthodes sur des jeux de données réalisés en internes et représentatifs pour \gls{ssa}. Et éventuellement de proposer des améliorations spécifiques aux maillages utilisés en simulations numériques.
|
Le but de ce stage est d'évaluer le potentiel de ces nouvelles méthodes sur des jeux de données réalisés en internes et représentatifs pour Safran. Et éventuellement de proposer des améliorations spécifiques aux maillages utilisés en simulations numériques.
|
||||||
|
|
||||||
L'étude vise tout d'abord à étudier la bibliographie disponible d'un côté sur les modèles génératifs et d'un autre sur les réseaux convolutionnels sur graphes. L'objectif est, dans une première phase, de faire un benchmark des différentes solutions de modèles génératifs sur graphe de type \gls{vae} et \gls{gan} afin de créer une représentation latente des géométries d'aubes 3D. Pour cela un dataset avec quelques milliers d'échantillons d'aubes 3D et leurs performances aérodynamique est disponible à \gls{ssa}. Le modèle résultant sera ensuite testé pour générer de nouvelles géométries et pour prédire les quantités d'intérêt par le biais de métamodèles classiques. Enfin, si l'avancement sur les premières tâches le permet, d'autres modèles génératifs peuvent être considérés comme le \gls{nf} ou les \gls{vdm}.
|
L'étude vise tout d'abord à étudier la bibliographie disponible d'un côté sur les modèles génératifs et d'un autre sur les réseaux convolutionnels sur graphes. L'objectif est, dans une première phase, de faire un benchmark des différentes solutions de modèles génératifs sur graphe de type \gls{vae} et \gls{gan} afin de créer une représentation latente des géométries d'aubes 3D. Pour cela un dataset avec quelques milliers d'échantillons d'aubes 3D et leurs performances aérodynamique est disponible à Safran. Le modèle résultant sera ensuite testé pour générer de nouvelles géométries et pour prédire les quantités d'intérêt par le biais de métamodèles classiques. Enfin, si l'avancement sur les premières tâches le permet, d'autres modèles génératifs peuvent être considérés comme le \gls{nf} ou les \gls{vdm}.
|
||||||
|
|
||||||
\chapter{État de l'art}
|
\chapter{État de l'art}
|
||||||
|
|
||||||
|
@ -337,7 +357,7 @@ nous avons choisi d'explorer ces modèles dans un premier temps lors de nos expe
|
||||||
|
|
||||||
% on est capable de calculer exactement le log likelyhood, et donc de train direct dessus, contrairement aux VAE où on train sur l'ELBO ou les GANS où y'a pas du tout de log likelyhood, jsute un minmnax game
|
% on est capable de calculer exactement le log likelyhood, et donc de train direct dessus, contrairement aux VAE où on train sur l'ELBO ou les GANS où y'a pas du tout de log likelyhood, jsute un minmnax game
|
||||||
|
|
||||||
Les \gls{nf} sont une autre classe de modèles génératifs qui ont gagné en popularité ces dernières années, puisque ces méthodes proposent de travailler directement sur les densités de probabilité, contrairement aux \gls{vae} et \gls{gan}. Ces modèles se basent des transformations inversibles (bijectives), continues et différentiables. Ces transformations sont appliquées à une distribution de base, généralement une distribution simple comme une gaussienne isotropique, pour obtenir une distribution plus complexe et plus proche de la distribution des données réelles.
|
Les \gls{nf} sont une autre classe de modèles génératifs qui ont gagné en popularité ces dernières années\cite{kobyzev_normalizing_2021}, puisque ces méthodes proposent de travailler directement sur les densités de probabilité, contrairement aux \gls{vae} et \gls{gan}. Ces modèles se basent des transformations inversibles (bijectives), continues et différentiables. Ces transformations sont appliquées à une distribution de base, généralement une distribution simple comme une gaussienne isotropique, pour obtenir une distribution plus complexe et plus proche de la distribution des données réelles.
|
||||||
Les transformations inversibles utilisées dans les \gls{nf} sont souvent paramétrisées par des réseaux de neurones, ce qui permet d'apprendre des fonctions non linéaires complexes. En utilisant plusieurs transformations en séquence, on peut construire des modèles génératifs flexibles capables de capturer des distributions complexes.
|
Les transformations inversibles utilisées dans les \gls{nf} sont souvent paramétrisées par des réseaux de neurones, ce qui permet d'apprendre des fonctions non linéaires complexes. En utilisant plusieurs transformations en séquence, on peut construire des modèles génératifs flexibles capables de capturer des distributions complexes.
|
||||||
|
|
||||||
Dans la littérature, ces réseaux sont assez peu appliqués aux types de données qui nous intéressent, à l'exception notable de PointFlow\cite{yang_pointflow_2019} qui aura posé certaines bases pour évaluer les réseaux génératifs de nuages de points. Comme par exemple la démocratisation des distances et métriques suivantes:
|
Dans la littérature, ces réseaux sont assez peu appliqués aux types de données qui nous intéressent, à l'exception notable de PointFlow\cite{yang_pointflow_2019} qui aura posé certaines bases pour évaluer les réseaux génératifs de nuages de points. Comme par exemple la démocratisation des distances et métriques suivantes:
|
||||||
|
@ -525,22 +545,19 @@ Les modèles auto-régressifs sont des méthodes de génération de séquences q
|
||||||
\label{fig:nerf-architecture}
|
\label{fig:nerf-architecture}
|
||||||
\end{figure}
|
\end{figure}
|
||||||
|
|
||||||
Les \gls{nerf} représentent une autre famille de modèles génératifs qui ont gagné en popularité récemment. Ces modèles ont la capacité de générer des rendus 3D hautement réalistes à partir de données d'entraînement en utilisant des réseaux de neurones. Contrairement aux approches traditionnelles de rendu 3D basées sur des maillages, les \gls{nerf} exploitent des représentations continues des scènes en décrivant les propriétés radiométriques et géométriques en chaque point de l'espace 3D.
|
Les \gls{nerf} représentent une autre famille de modèles génératifs qui ont gagné en popularité récemment\cite{mildenhall_nerf_2020}. Ces modèles ont la capacité de générer des rendus 3D hautement réalistes à partir de données d'entraînement en utilisant des réseaux de neurones. Contrairement aux approches traditionnelles de rendu 3D basées sur des maillages, les \gls{nerf} exploitent des représentations continues et implicites des scènes en décrivant les propriétés radiométriques et géométriques en chaque point de l'espace 3D.
|
||||||
|
|
||||||
Le principe des \gls{nerf} est de modéliser une fonction de densité de rayon (ou "ray density function") qui caractérise l'interaction de la lumière avec les objets de la scène. Cette fonction est ensuite utilisée pour estimer la couleur et la profondeur des rayons traversant la scène, permettant ainsi de générer des images photoréalistes.
|
Le principe des \gls{nerf} est de modéliser une fonction de densité de rayon (ou "ray density function") qui caractérise l'interaction de la lumière avec les objets de la scène. Cette fonction est ensuite utilisée pour estimer la couleur et la profondeur des rayons traversant la scène, permettant ainsi de générer des images photoréalistes.
|
||||||
|
|
||||||
L'un des aspects fascinants des \gls{nerf} réside dans leur capacité à apprendre des scènes complexes et à générer des rendus à partir d'un nombre limité de vues ou de données d'entraînement. Grâce à leur architecture neuronale et à leur capacité à modéliser la distribution des couleurs et des formes, les \gls{nerf} sont en mesure de synthétiser des scènes réalistes même à partir de quelques images.
|
L'un des aspects fascinants des \gls{nerf} réside dans leur capacité à apprendre des scènes complexes et à générer des rendus à partir d'un nombre limité de vues ou de données d'entraînement. Grâce à leur architecture neuronale et à leur capacité à modéliser la distribution des couleurs et des formes, les \gls{nerf} sont en mesure de synthétiser des scènes réalistes même à partir de quelques images.
|
||||||
|
|
||||||
Les \gls{nerf} sont donc une alternative aux méthodes traditionnelles de reconstructions de scènes par résolution d'un problème inverse. Cependant ces modèles peuvent aussi être utilisé conjointement avec d'autres réseau pour permettre d'obtenir des réseaux génératifs\cite{nichol_point-e_2022,takikawa_neural_2021,nam_3d-ldm_2022}.
|
Les \gls{nerf} sont donc une alternative aux méthodes traditionnelles de reconstructions de scènes par résolution du problème inverse 3D. Cependant ces modèles peuvent aussi être utilisé conjointement avec d'autres réseau pour permettre d'obtenir des réseaux génératifs\cite{nichol_point-e_2022,takikawa_neural_2021,nam_3d-ldm_2022}.
|
||||||
|
|
||||||
Dans notre cas, étant donné que notre ensemble de données ne convient pas à l'application des \gls{nerf}, puisque cela necessiterait un travail lourd de pre-processing (conversion de nos maillages/scènes en image via un moteur de rendu) et de post-precessing (marching cube) de notre dataset. Nous n'utiliserons donc pas cette approche.
|
Dans notre cas, étant donné que notre jeu de données n'est pas adapté à l'application des \gls{nerf}, car cela nécessiterait un processus de prétraitement complexe (comprenant la conversion de nos maillages/scènes en images via un moteur de rendu) ainsi qu'un post-traitement conséquent (utilisation du "marching cube") de notre ensemble de données. Par conséquent, nous ne choisirons pas d'adopter cette approche. De plus, dans le contexte industriel, les outils destinés à la manipulation d'objets implicites ne sont pas encore suffisamment avancés pour être déployés en production.
|
||||||
de même, dans le cadre industriel, les outils permettant la manipulations d'objets implicites ne sont pas encore assez développés pour être utilisés en production.
|
|
||||||
|
|
||||||
\cite{nichol_point-e_2022}
|
|
||||||
|
|
||||||
\chapter{Déroulement du stage}
|
\chapter{Déroulement du stage}
|
||||||
|
|
||||||
Ce chapitre présente un aperçu détaillé du déroulement de mon stage de 6 mois (Du 21 Mars 2023 au 21 Septembre 2023) au sein de \gls{ssa}. Tout au long de cette période, j'ai travaillé en tant que Stagiaire Ingénieur en Machine Learning au sein du département Safran Tech, dans l'équipe flex (chercher acronyme bidule), dont le but est de développer des outils de simulation et de modélisation pour les besoins de \gls{ssa}. J'ai été encadré par Xavier Roynard, Michel Alessandro Bucci et Brian Staber.
|
Ce chapitre présente un aperçu détaillé du déroulement de mon stage de 6 mois (Du 21 Mars 2023 au 21 Septembre 2023) au sein de Safran. Tout au long de cette période, j'ai travaillé en tant que Stagiaire Ingénieur en Machine Learning au sein du département Safran Tech, dans l'équipe flex (chercher acronyme bidule), dont le but est de développer des outils de simulation et de modélisation pour les besoins de Safran. J'ai été encadré par Xavier Roynard, Michel Alessandro Bucci et Brian Staber.
|
||||||
|
|
||||||
Je décrirai dans les prochaines sections les différentes étapes de mon stage, les tâches qui m'ont été confiées ainsi que les projets auxquels j'ai contribué.
|
Je décrirai dans les prochaines sections les différentes étapes de mon stage, les tâches qui m'ont été confiées ainsi que les projets auxquels j'ai contribué.
|
||||||
|
|
||||||
|
@ -558,7 +575,7 @@ Au cours de cette période, j'ai également eu des discussions régulières avec
|
||||||
\FloatBarrier
|
\FloatBarrier
|
||||||
\section{Prise en main des données}
|
\section{Prise en main des données}
|
||||||
|
|
||||||
En parallèle de ma lecture de la littérature, j'ai entamé l'exploration des données fournies par \gls{ssa}. J'ai acquis une compréhension des différents formats de données spécifiques utilisés par l'entreprise pour stocker les résultats des simulations numériques de mécaniques des fluides. De plus, j'ai appris à manipuler ces données en utilisant des outils tels que Paraview\cite{ParaView}.
|
En parallèle de ma lecture de la littérature, j'ai entamé l'exploration des données fournies par Safran. J'ai acquis une compréhension des différents formats de données spécifiques utilisés par l'entreprise pour stocker les résultats des simulations numériques de mécaniques des fluides. De plus, j'ai appris à manipuler ces données en utilisant des outils tels que Paraview\cite{ParaView}.
|
||||||
|
|
||||||
Le principal ensemble de données sur lequel j'ai travaillé pendant mon stage s'appelle Rotor37\_1200. Il s'agit d'un ensemble de données de simulation \gls{cfd} d'une des 37 pales d'une turbine d'un moteur d'avion. Cet ensemble de données contient 1200 échantillons, qui ont été créé via un processus d'optimisation consistant en l'exploration de paramètres en quête de la maximisation d'un critère de performance.
|
Le principal ensemble de données sur lequel j'ai travaillé pendant mon stage s'appelle Rotor37\_1200. Il s'agit d'un ensemble de données de simulation \gls{cfd} d'une des 37 pales d'une turbine d'un moteur d'avion. Cet ensemble de données contient 1200 échantillons, qui ont été créé via un processus d'optimisation consistant en l'exploration de paramètres en quête de la maximisation d'un critère de performance.
|
||||||
|
|
||||||
|
|
|
@ -1148,3 +1148,38 @@ Publisher: Multidisciplinary Digital Publishing Institute},
|
||||||
keywords = {Computer Science - Machine Learning, Statistics - Machine Learning},
|
keywords = {Computer Science - Machine Learning, Statistics - Machine Learning},
|
||||||
file = {arXiv Fulltext PDF:/home/laurent/Zotero/storage/38D6FI5W/Zhao et al. - 2018 - Bias and Generalization in Deep Generative Models.pdf:application/pdf;arXiv.org Snapshot:/home/laurent/Zotero/storage/5KNUNRMG/1811.html:text/html},
|
file = {arXiv Fulltext PDF:/home/laurent/Zotero/storage/38D6FI5W/Zhao et al. - 2018 - Bias and Generalization in Deep Generative Models.pdf:application/pdf;arXiv.org Snapshot:/home/laurent/Zotero/storage/5KNUNRMG/1811.html:text/html},
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@article{kobyzev_normalizing_2021,
|
||||||
|
title = {Normalizing {Flows}: {An} {Introduction} and {Review} of {Current} {Methods}},
|
||||||
|
volume = {43},
|
||||||
|
issn = {0162-8828, 2160-9292, 1939-3539},
|
||||||
|
shorttitle = {Normalizing {Flows}},
|
||||||
|
url = {http://arxiv.org/abs/1908.09257},
|
||||||
|
doi = {10.1109/TPAMI.2020.2992934},
|
||||||
|
abstract = {Normalizing Flows are generative models which produce tractable distributions where both sampling and density evaluation can be efficient and exact. The goal of this survey article is to give a coherent and comprehensive review of the literature around the construction and use of Normalizing Flows for distribution learning. We aim to provide context and explanation of the models, review current state-of-the-art literature, and identify open questions and promising future directions.},
|
||||||
|
number = {11},
|
||||||
|
urldate = {2023-08-16},
|
||||||
|
journal = {IEEE Transactions on Pattern Analysis and Machine Intelligence},
|
||||||
|
author = {Kobyzev, Ivan and Prince, Simon J. D. and Brubaker, Marcus A.},
|
||||||
|
month = nov,
|
||||||
|
year = {2021},
|
||||||
|
note = {arXiv:1908.09257 [cs, stat]},
|
||||||
|
keywords = {Computer Science - Machine Learning, Statistics - Machine Learning},
|
||||||
|
pages = {3964--3979},
|
||||||
|
file = {arXiv Fulltext PDF:/home/laurent/Zotero/storage/6J6C8IB8/Kobyzev et al. - 2021 - Normalizing Flows An Introduction and Review of C.pdf:application/pdf;arXiv.org Snapshot:/home/laurent/Zotero/storage/U8YTGRBX/1908.html:text/html},
|
||||||
|
}
|
||||||
|
|
||||||
|
@misc{mildenhall_nerf_2020,
|
||||||
|
title = {{NeRF}: {Representing} {Scenes} as {Neural} {Radiance} {Fields} for {View} {Synthesis}},
|
||||||
|
shorttitle = {{NeRF}},
|
||||||
|
url = {http://arxiv.org/abs/2003.08934},
|
||||||
|
doi = {10.48550/arXiv.2003.08934},
|
||||||
|
abstract = {We present a method that achieves state-of-the-art results for synthesizing novel views of complex scenes by optimizing an underlying continuous volumetric scene function using a sparse set of input views. Our algorithm represents a scene using a fully-connected (non-convolutional) deep network, whose input is a single continuous 5D coordinate (spatial location \$(x,y,z)\$ and viewing direction \$({\textbackslash}theta, {\textbackslash}phi)\$) and whose output is the volume density and view-dependent emitted radiance at that spatial location. We synthesize views by querying 5D coordinates along camera rays and use classic volume rendering techniques to project the output colors and densities into an image. Because volume rendering is naturally differentiable, the only input required to optimize our representation is a set of images with known camera poses. We describe how to effectively optimize neural radiance fields to render photorealistic novel views of scenes with complicated geometry and appearance, and demonstrate results that outperform prior work on neural rendering and view synthesis. View synthesis results are best viewed as videos, so we urge readers to view our supplementary video for convincing comparisons.},
|
||||||
|
urldate = {2023-08-16},
|
||||||
|
publisher = {arXiv},
|
||||||
|
author = {Mildenhall, Ben and Srinivasan, Pratul P. and Tancik, Matthew and Barron, Jonathan T. and Ramamoorthi, Ravi and Ng, Ren},
|
||||||
|
month = aug,
|
||||||
|
year = {2020},
|
||||||
|
note = {arXiv:2003.08934 [cs]},
|
||||||
|
keywords = {Computer Science - Computer Vision and Pattern Recognition, Computer Science - Graphics},
|
||||||
|
}
|
||||||
|
|
Loading…
Reference in a new issue