之前博客进行了COLMAP在服务器下的测试
实验笔记之——基于Linux服务器复现Instant-NGP及常用的tmux指令-CSDN博客文章浏览阅读255次,点赞7次,收藏6次。学习笔记之——NeRF SLAM(基于神经辐射场的SLAM)-CSDN博客NeRF 所做的任务是 Novel View Synthesis(新视角合成),即在若干已知视角下对场景进行一系列的观测(相机内外参、图像、Pose 等),合成任意新视角下的图像。传统方法中,通常这一任务采用三维重建再渲染的方式实现,NeRF 希望不进行显式的三维重建过程,仅根据内外参直接得到新视角渲染的图像。配置好后,通过./instant-ngp或者scripts/run.py就可以运行了。这个编译好像比较耗费时间~https://blog.csdn.net/gwplovekimi/article/details/135365847?spm=1001.2014.3001.5501实验笔记之——Gaussian Splatting-CSDN博客文章浏览阅读691次,点赞23次,收藏8次。之前博客对NeRF-SLAM进行了调研学习笔记之——NeRF SLAM(基于神经辐射场的SLAM)-CSDN博客NeRF 所做的任务是 Novel View Synthesis(新视角合成),即在若干已知视角下对场景进行一系列的观测(相机内外参、图像、Pose 等),合成任意新视角下的图像。传统方法中,通常这一任务采用三维重建再渲染的方式实现,NeRF 希望不进行显式的三维重建过程,仅根据内外参直接得到新视角渲染的图像。https://blog.csdn.net/gwplovekimi/article/details/135349210?spm=1001.2014.3001.5501这两篇博客中,测试public的数据集效果都不错,但是用iphone的record3D录制的要么不能用要么效果很差,为此统一采用COLMAP来计算pose,再次进行测试以及对比两个方法
首先分别运行下面的命令来启动3DGS并可视化其在线训练的过程
conda activate 3DGS
cd gaussian-splatting/
python train.py -s /home/gwp/dataset/30fps
下面在MobaXterm下运行
conda activate 3DGS
cd gaussian-splatting/
./SIBR_viewers/install/bin/SIBR_remoteGaussian_app
训练5分钟左右的结果
训练过程的各种视角请见下视频
基于COLMAP测试3D Gaussian Splatting(训练过程可视化)
GitHub - NVlabs/instant-ngp: Instant neural graphics primitives: lightning fast NeRF and more
https://github.com/NVlabs/instant-ngp/blob/master/docs/nerf_dataset_tips.md
由于NGP支持的数据格式跟3DGS稍有不同,为此需要进行处理
对于参数“aabb_scale
?”,如说明文档所言:
“The?aabb_scale
?parameter is the most important?instant-ngp?specific parameter. It specifies the extent of the scene, defaulting to 1; that is, the scene is scaled such that the camera positions are at an average distance of 1 unit from the origin. For small synthetic scenes such as the original NeRF dataset, the default?aabb_scale
?of 1 is ideal and leads to fastest training. The NeRF model makes the assumption that the training images can entirely be explained by a scene contained within this bounding box. However, for natural scenes where there is a background that extends beyond this bounding box, the NeRF model will struggle and may hallucinate "floaters" at the boundaries of the box. By setting?aabb_scale
?to a larger power of 2 (up to a maximum of 128), the NeRF model will extend rays to a much larger bounding box. Note that this can impact training speed slightly. If in doubt, for natural scenes, start with an?aabb_scale
?of 128, and subsequently reduce it if possible. The value can be directly edited in the?transforms.json
?output file, without re-running the?scripts/colmap2nerf.py?script.”
aabb_scale 参数是最重要的 instant-ngp 特定参数。指定场景的范围,默认为1;也就是说,场景被缩放,使得摄像机位置距原点的平均距离为 1 个单位。对于小型合成场景(例如原始 NeRF 数据集),默认的 aabb_scale 1 是理想的,并且可以实现最快的训练。 NeRF 模型假设训练图像可以完全由该边界框内包含的场景来解释。然而,对于背景超出此边界框的自然场景,NeRF 模型将陷入困境,并可能在框的边界处产生“漂浮物”的幻觉。通过将 aabb_scale 设置为更大的 2 次方(最大可达 128),NeRF 模型会将光线扩展到更大的边界框。请注意,这可能会稍微影响训练速度。如果有疑问,对于自然场景,请从 128 的 aabb_scale 开始,然后在可能的情况下减小它。该值可以直接在transforms.json输出文件中编辑,无需重新运行scripts/colmap2nerf.py脚本。
那么此处就先设置为128吧~
data-folder$ python ~/instant-ngp/scripts/colmap2nerf.py --colmap_matcher exhaustive --run_colmap --aabb_scale 128
注意图片的文件名字需要是images(当然也可以通过输入参数修改了)
过程感觉跟3DGS中的差不多~也是一样的耗时hhh(记得要开tmux),只是数据格式支持不一样~
不知道为啥生成的transform.json只有2个camera~
改为下面的命令测试则可以了!(添加了--colmap_camera_model SIMPLE_PINHOLE)
data-folder$ python ~/instant-ngp/scripts/colmap2nerf.py --colmap_matcher exhaustive --run_colmap --aabb_scale 32 --colmap_camera_model SIMPLE_PINHOLE
同时用colmap gui也试试
NGP的运行代码如下:
conda activate nerf-ngp
cd instant-ngp/
./instant-ngp /home/gwp/dataset/30fps_for_ngp/
结果如下图所示
虽然渲染久一些效果会有点提升
但是这个效果应该是不如3DGS的~(这可能也跟上面提到的aabb_scale有关)
把值从32改为1的效果如下:
好像更差~那改为128呢?
渲染的过程可视化如下
基于COLMAP测试Instant-NGP(训练过程可视化)
上面的测试中都是边训练边看效果,此处看看直接训练好开奖的结果吧哈~
如下图所示,大概半个小时左右,训练好了一个3DGS,看着PSNR还挺高的,打算加载看看效果~
平时边训练边看结果的代码如下:
conda activate 3DGS
cd gaussian-splatting/
./SIBR_viewers/install/bin/SIBR_remoteGaussian_app
但如果当前没有训练会看到加载的空空如也~
细看gaussian-splatting/的文件组成会发现,它会把训练的结果保存在output中
这个就是当前训练好的模型了。如果要指向某个训练好的模型,应该是
./<SIBR install dir>/bin/SIBR_gaussianViewer_app -m <path to trained model>
./SIBR_viewers/install/bin/SIBR_gaussianViewer_app -m "/home/gwp/gaussian-splatting/output/1f6d93f1-5/"
效果如下视频所示
基于COLMAP测试3D Gaussian Splatting(训练好的模型)