Interacción hombre-robot con vehículos aéreos no tripulados basada en visión



Interacción hombre-robot con vehículos aéreos no tripulados basada en visión”

Daniel Soto Guerrero
 

Texto completo de la Tesis     

 



Resumen

 

En este trabajo de tesis se propone el desarrollo de una interfaz entre un vehículo aéreo no tripulado (UAV por sus siglas en inglés) y una persona. La interfaz realiza el rastreo de una persona y el reconocimiento de sus órdenes gestuales, por medio de visión por computadora. Generalmente, se emplea una estación de trabajo fija en tierra para implementar el procesamiento digital de imágenes, limitando la aplicación del vehículo al rango de comunicacion entre ambas partes. Para evitar el uso de una estación fija en tierra para el control del dron, y lograr una mayor autonomía del uso de la interfaz, se propone que el procesamiento computacional de las imágenes se realice en un dispositivo móvil portado por el usuario. El desarrollo de la interfaz propuesta en este trabajo, requirió que se diera solución a algunas difi cultades técnicas, relacionadas tanto con la comunicación con el UAV como con las capacidades computacionales reducidas de la plataforma. Igualmente, se discute la unión sinérgica del decodi ficador de video con el procesamiento digital de imágenes, como estrategia para aumentar el rendimiento general de la interfaz. Con este trabajo se pretende realizar un aporte al estudio de interacción hombre-robot, aplicado a vehículos aéreos no tripulados. La interfaz propuesta se basa en el reconocimiento de gestos que el usuario realiza con su dorso y brazos, capturados por una camara de video montada en el vehículo aéreo. Se propone tambien el uso de un dispositivo laser para, por medio de triangulación visual, estimar la distancia entre el vehículo y el usuario. Finalmente, se muestran y se discuten los resultados finales, los cuales prueban que la interfaz opera satisfactoriamente, siguiendo al usuario y clasifi cando sus gestos de manera correcta.

 

Abstract

In this thesis work we propose the development of an interface between a human and a UAV (Unmanned Aerial Vehicle a.k.a. drone), based on visual gesture recognition and user's upper body tracking. Generally, all computational tasks run in ground-based work stations, which deliver performance but they are not meant for ubiquitous applications. In order to improve the usage of the interface, we propose a mobile platform, worn by the user, to perform all computational tasks. This document cover all technical diculties solved during the development of this interface, including wireless communication troubleshooting and all strategies implemented to make good use of available processing performance. We describe how we mixed drone's video decoder and digital image processing algorithms to achieve this. This research work complements what has been observed and reported recently in the eld of human-machine interaction. This interface di ers from others because of its platform and its visual recognition algorithms, which segment and classify user's upper body through the UAV's on board camera. We also tested one laser range nder to estimate the user's relative position to the drone. We show and discuss all nal results that prove the usefulness of the proposed interface to track and recognize body gestures.