Esta tesis versa sobre el uso de sensores de rango en visión por computador y robótica. Se centra principalmente (pero no exclusivamente) en la estimación de movimiento 2D y 3D con cámaras RGB-D y escáneres láser. En algunos casos el objetivo es la estimación del movimiento del propio sensor, y en otros la del movimiento de los objetos que observa. Además, presentamos nuevos algoritmos que explotan los datos geométricos proporcionados por dichos sensores para la reconstrucción 3D de objetos o la navegación autónoma de robots. En concreto, abordamos los siguientes problemas:
- Odometría visual. La odometría consiste en la estimación incremental del movimiento mediante uno o varios sensores, y es una parte fundamental de muchos sistemas robóticos o de realidad virtual/aumentada.
- Estimación del flujo de escena. Se denomina flujo de escena al campo vectorial que representa de forma independiente el movimiento 3D de todos y cada uno de los puntos observados por una cámara. Sus aplicaciones son múltiples: el modelado 3D de cuerpos no rígidos, la manipulación de objetos móviles, la interacción hombre-máquina o el análisis de movimiento son algunos ejemplos.
- Reconstrucción 3D de objetos. Consiste en obtener una representación matemática (en este caso una superficie) que describa la forma de un objeto dado a partir de un conjunto de imágenes. Esto resulta útil a la hora de medir dimensiones, insertar objetos reales en mundos virtuales, o combinar objetos y entornos reales que no están juntos físicamente.
- Navegación reactiva con sensores de rango. Como su propio nombre indica, los algoritmos de navegación reactiva permiten a un robot móvil "reaccionar" ante distintas distribuciones de obstáculos para alcanzar un destino prefijado. Al contrario que los sistemas deliberativos, no necesitan conocer previamente el mapa del entorno, pero solo permiten la navegación a destinos locales (no muy lejanos a la pose del robot).