Construyen egresados del Politécnico robot para terapia de autismo infantil

Cuenta con 6 servomotores que permiten el control de la posición, aceleración y velocidad, así como de 9 movimientos básicos

 

Ingenieros del Instituto Politécnico Nacional (IPN) fabricaron el torso de un robot humanoide, como herramienta de apoyo para terapias multisensoriales enfocadas a niños preadolescentes con autismo funcional. 

Los egresados de la Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas (Upiita) y creadores del proyecto, Evelin García Almaraz y Ricardo Arturo Zavala Velasco, explicaron que el autismo se caracteriza por la dificultad de interactuar, socializar y comunicarse con otras personas. 

García Almaraz, señaló que el autismo presenta un amplio espectro de comportamiento, que va desde muy severo hasta apenas imperceptible, con niñas y niños a los que se les puede hablar, incluso tocar y para quienes un robot humanoide no representa una amenaza.

  

  

Los politécnicos utilizaron planos del torso, manos y cara de un robot humanoide InMoov, desarrollado en código abierto por el escultor francés Gaël Langevin, con propósitos educativos, y lo adaptaron a su propio proyecto de Robótica Educativa (RE) con el cual obtuvieron el grado en Ingeniería Biónica. 

La primera fase del proyecto requirió́ más de 400 horas de impresión. La siguiente fase consistió en el reconocimiento de imágenes a través de una cámara Intel RealSense (de profundidad) colocada en el torso del robot, detalló Ricardo Zavala.

“Esta cámara permite que los dispositivos puedan captar y aprender de su entorno. La idea es que niñas y niños puedan imitar sus movimientos y el robot confirmará que lo estén haciendo correctamente”, dijo.

El robot cuenta con seis servomotores que permiten el control de la posición, aceleración y velocidad, así como de nueve movimientos básicos, entre ellos, levantar los brazos de frente a 180 grados y de regreso, mover la cabeza para asentir o negar y mover la mandíbula al hablar.

Con asesoría de los profesores, los jóvenes realizaron una programación para la adquisición de imágenes por medio de las redes neuronales convolucionales YOLO (You only look once, que traducido quiere decir: ‘Tú sólo ves una vez’), un algoritmo de open source (fuente abierta) capaz de extraer todas las características de una imagen fija o de video, clasificarlas y detectarlas con precisión de forma autónoma.

Para el desarrollo del prototipo, los politécnicos acudieron con especialistas en autismo, quienes explicaron que en México existen algunas salas multisensoriales donde los menores pueden reconocer colores y texturas, pero un robot enfocado a la socialización por atención consciente sería algo inédito y de gran utilidad para las terapias para niños con autismo funcional.