IIC3912 - Tópicos Avanzados de Gráfica Computacional
Francisca T. Gil-Ureta ⋅ 2026

¿Con qué sensor reconstruirías esto?

Tenemos acceso a un dron con cámara RGB, a un sensor RGB-D, y a un escáner LiDAR.
La pregunta es bastante técnica, pero depende de decisiones de diseño de alto nivel que tenemos que decidir. Por ejemplo, ¿qué tan preciso tiene que ser el resultado? ¿qué escala tiene la escena? ¿qué presupuesto hay?
Las cámaras RGB, ya sea terrestres o drones, capturan la intensidad de luz (color) por pixel. No capturan información de profundidad, pero se puede inferir a partir de múltiples vistas siempre y cuando haya suficiente solape entre las fotos, y texturas 'ricas'.
Estas cámaras son altamente accesible, alta resolución (muchos pixeles), y de un rango de visible variable.
<aside> 💡
Ejemplo scan drone. Chug Chug, 1,283 imágenes. Cortesía de Estudios Aplicados Antropología UC (EAA_UC)
</aside>
https://youtube.com/watch?v=y4VOjPs4f58
Se proyectan luz, generalmente infrarroja, sobre una escena utilizando un patrón conocido. Este patrón puede variar en el espacio, en el tiempo o en ambos.
Al observar cómo ese patrón se deforma sobre los objetos —por ejemplo, cómo unas franjas se curvan sobre una superficie esférica— el sensor puede calcular la profundidad de la escena.

Debido a que dependen de ver con precisión este patrón**, funcionan mejor en interiores y a distancias cortas**, y pueden verse afectadas por interferencias infrarrojas.
<aside> 💡
Kinect V1, Quest 3, Apple's Face ID usan structured light cómo parte de su sistema de medición de profundidad.
</aside>