Sistema de interacción visual para un robot social

  1. Mario Domínguez López
  2. Eduardo Zalama Casanova
  3. Jaime Gómez García-Bermejo
  4. Samuel Marcos Pablos
Liburua:
Actas de las XXXVIII Jornadas de Automática
  1. Hilario López García (coord.)

Argitaletxea: Servicio de Publicaciones ; Universidad de Oviedo

ISBN: 978-84-16664-74-0

Argitalpen urtea: 2017

Orrialdeak: 709-716

Biltzarra: Jornadas de Automática (38. 2017. Gijón)

Mota: Biltzar ekarpena

Laburpena

Una de las características de los robots sociales es que tengan expresividad y fluidez lo más cercana a la naturaleza humana. En este caso una de las mayores fuentes de expresividad son los rasgos faciales. Por otra parte, estamos acostumbrados a comunicarnos mirando a otras personas a la cara por lo que desarrollar robots con expresividad, capacidad gestual y de seguimiento facial es una de las características buscadas en el desarrollo de robots sociales. El presente artículo describe el desarrollo de un sistema de interacción hombre-máquina para un robot móvil social constituido por dos subsistemas o módulos. El primer subsistema se encarga de la detección del interlocutor y su seguimiento facial. Para ello realiza una detección inicial a partir de la información suministrada por el láser de navegación del robot, para posteriormente fijar la atención a partir de la información obtenida con una cámara de rango tipo Kinect. El segundo subsistema de encarga de la generación de gestos del robot. Para ello se ha adoptado el estándar FACS (Facial Action Coding System) lo cual permite su utilización en diferentes tipos de robots. La generación de expresiones se realiza mediante la combinación del movimiento controlado de cuello, párpados y ojos, con gestos mostrados en un display luminoso en la boca del robot.