NeRF 에서는 왜 광각 카메라나 초광각 카메라를 사용하지 않는걸까? 어떤 것이 두려운걸까? “NeRF 같은 방법에서는 왜 어안렌즈나 광각렌즈를 잘 안쓸까요? 작은 모델링오차에도 민감하기 때문에 많이 난이도가 높아지는 탓일까요? 이미 Visual SLAM 에는 어안렌즈까지도 많이 사용되고 있어서, NeRF 같은 모델에 쓰는게 불가능하지 않을듯 싶은데 관련연구를 찾을 수 없었습니다.”


from

  1. a9.3_3. title: NeRF는 3D 오브젝트를 만들어 내는 것이 아니라, 뷰를 입력으로 넣었을 때, feed-forward 결과 노블 뷰를 보여 주는 네트워크다. 하지만 학습 과정에서 광학적 개념을 이용했기 때문에 3D 공간에 대한 정보를 뉴럴 네트워크가 분명히 가지고 있다고도 바라볼 수 있는데, 그래서 explicit representation 이 아닌 implicit representation 이라고 부른다.

참고

  1. 1. static scene 2. forward-facing view 3. with small view-port changes. Smaller viewport change / forward facing views, No moving / deforming objects. (e.g. a car driving across the street, a bird flying across the sky, people waving hands), No significant illumination/exposure changes. (e.g. camera moving from pointing towards the sun to back to the sun), No focal length changes. Currently assume all input share the same camera intrinsics.
  2. NeRF 방식의 문제점은 촬영 중 피사체가 완전히 정지할 필요가 있다는 것이다. 피사체가 움직이지 않는 것이면 문제가 없지만 항상 움직이는 피사체라면 카메라 여러 대를 나린히 여러 각도에서 동시에 인물 사진을 촬영한다. 이 과제를 해결하기 위해 연구팀은 D-NeRF(Deformable Neural Radiance Fields)라는 새로운 방식을 연구 개발했다. 이 방식은 프레임을 비교하고 피사체가 얼마나 이동했는지 판단해 변형을 자동으로 계산 추출한 불완전한 2D 이미지 데이터를 조정해 정확하고 인터랙티브한 3D 모델을 만들 수 있다.
  3. However, despite achieving an unprecedented level of photorealism on the generated images, NeRF is only applicable to static scenes, where the same spatial location can be queried from different images. In this paper we introduce D-NeRF, a method that extends neural radiance fields to a dynamic domain, allowing to reconstruct and render novel images of objects under rigid and non-rigid motions from a single camera moving around the scene. For this purpose we consider time as an additional input to the system
  4. While NeRF has an impressive ability to reconstruct geometry and fine details given many images, up to 100 for challenging 360° scenes, it often finds a degenerate solution to its image reconstruction objective when only a few input views are available. To improve few-shot quality, we propose DietNeRF.