https://www.yuque.com/gggyyy/gk3tpf/ceaso6g79hcffo7w?singleDoc#

形变场式(Canonical Space + Deformation**)**

输入虽然也是xyzt,但是会利用t维度,显式的表达一个frame0作为基准(canonical space)的形变场。

D-NeRF

https://www.albertpumarola.com/research/D-NeRF/index.html

Untitled

额外学习一个形变场(即场景相对于frame0的形变)

从paper来看,好像在一定程度上是解耦的(解耦成一个标准空间的frame0的静态场景,和一个形变场,但是形变场不能独立于静态场景而存在)

形变场也没有单独的监督,即和frame0的static场景联合训练并 直接应用mse loss

解耦场景的融合策略

Untitled

直接在输入层面融合:即直接将形变场的输出与 static部分的输入相加,形成形变后的新输入

NR-NeRF

https://vcai.mpi-inf.mpg.de/projects/nonrigid_nerf/

思路: 看paper似乎是 per frame学习一个latent code I(内含per frame的动态信息),然后利用一个mlp b(输入是x和I)计算出per frame的形变场(这么一看,其实就是升级版的D-NeRF)

Untitled