Construyen politécnicos robot para terapia de autismo infantil

Construyen politécnicos robot para terapia de autismo infantil
  • El humanoide contiene una cámara de profundidad colocada en su torso para captar los movimientos del usuario
  • El robot encenderá luces led si las y los niños imitan bien sus movimientos

Ingenieros del Instituto Politécnico Nacional (IPN) fabricaron el torso de un robot humanoide, como herramienta de apoyo para terapias multisensoriales enfocadas a niños preadolescentes con autismo funcional.

Los egresados de la Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas (Upiita) y creadores del proyecto, Evelin García Almaraz y Ricardo Arturo Zavala Velasco, explicaron que el autismo se caracteriza por la dificultad de interactuar, socializar y comunicarse con otras personas.

“El autismo presenta un amplio espectro de comportamiento, que va desde muy severo hasta apenas imperceptible, con niñas y niños a los que se les puede hablar, incluso tocar y para quienes un robot humanoide no representa una amenaza; ese grupo es al que va dirigido el prototipo”, indicó Evelin García.

Los politécnicos utilizaron planos del torso, manos y cara de un robot humanoide InMoov, desarrollado en código abierto por el escultor francés Gaël Langevin, con propósitos educativos, y lo adaptaron a su propio proyecto de Robótica Educativa (RE) con el cual obtuvieron el grado en Ingeniería Biónica. La primera fase del proyecto requirió más de 400 horas de impresión. La siguiente fase consistió en el reconocimiento de imágenes a través de una cámara Intel RealSense (de profundidad) colocada en el torso del robot.

“Esta cámara permite que los dispositivos puedan captar y aprender de su entorno. La idea es que niñas y niños puedan imitar sus movimientos y el robot confirmará que lo estén haciendo correctamente”, detalló Ricardo Zavala.

El robot cuenta con seis servomotores que permiten el control de la posición, aceleración y velocidad, así como de nueve movimientos básicos, entre ellos, levantar los brazos de frente a 180 grados y de regreso, mover la cabeza para asentir o negar y mover la mandíbula al hablar.

Con asesoría de los profesores Yesenia Eleonor González, Álvaro Anzueto Ríos y José Gonzalo Solís Villela, los jóvenes realizaron una programación para la adquisición de imágenes por medio de las redes neuronales convolucionales YOLO (You only look once, que traducido quiere decir: Tú sólo ves una vez), un algoritmo de open source (fuente abierta) capaz de extraer todas las características de una imagen fija o de video, clasificarlas y detectarlas con precisión de forma autónoma.

“Nosotros recabamos más de tres mil 500 imágenes para realizar terapias multisensoriales, enfocadas a la atención consciente, es decir, que el niño pueda entender lo que le están diciendo replique los movimientos que le solicitan que realice. Si se hace el movimiento correctamente prenderán unas luces led y una voz que dirá: bien hecho, vamos al siguiente movimiento”, explicaron los ingenieros en Biónica.

Para el desarrollo del prototipo, los politécnicos acudieron con especialistas en autismo, quienes explicaron que en México existen algunas salas multisensoriales donde las y los menores pueden reconocer colores y texturas, pero un robot enfocado a la socialización por atención consciente sería algo inédito y de gran utilidad para las terapias para niños con autismo funcional.

Fuente: https://www.ipn.mx/imageninstitucional/comunicados/ver-comunicado.html?y=2023&n=68&t=6

Entradas relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leer también x