Este prototipo de apoyo para terapias multisensoriales enfocadas a niños preadolescentes con dicho trastorno, cuenta con seis servomotores que permiten el control de la posición, aceleración y velocidad del mismo; la idea es que los infantes puedan imitar sus movimientos, la herramienta confirmará que lo estén haciendo correctamente.
Ingenieros del Instituto Politécnico Nacional (IPN) fabricaron el torso de un robot humanoide, como herramienta de apoyo para terapias multisensoriales enfocadas a niños preadolescentes con autismo funcional.
Los creadores este proyecto, Evelin García Almaraz y Ricardo Arturo Zavala Velasco, , dos egresados de la Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas (Upiita), para presentar su prototipo explicaron que el autismo se caracteriza por la dificultad de interactuar, socializar y comunicarse con otras personas.
“El autismo presenta un amplio espectro de comportamiento, que va desde muy severo hasta apenas imperceptible, con niñas y niños a los que se les puede hablar, incluso tocar y para quienes un robot humanoide no representa una amenaza; ese grupo es al que va dirigido el prototipo”, indicó Evelin García.
Los politécnicos utilizaron planos del torso, manos y cara de un robot humanoide InMoov, desarrollado en código abierto por el escultor francés Gaël Langevin, con propósitos educativos, y lo adaptaron a su propio proyecto de Robótica Educativa (RE) con el cual obtuvieron el grado en Ingeniería Biónica.
La primera fase del proyecto requirió más de 400 horas de impresión. La siguiente fase consistió en el reconocimiento de imágenes a través de una cámara Intel RealSense (de profundidad) colocada en el torso del robot, cuenta el IPN a través de un comunicado.
“Esta cámara permite que los dispositivos puedan captar y aprender de su entorno. La idea es que niñas y niños puedan imitar sus movimientos y el robot confirmará que lo estén haciendo correctamente”, detalló Ricardo Zavala.
El robot cuenta con seis servomotores que permiten el control de la posición, aceleración y velocidad, así como de nueve movimientos básicos, entre ellos, levantar los brazos de frente a 180 grados y de regreso, mover la cabeza para asentir o negar y mover la mandíbula al hablar.
Con la asesoría de sus profesores, los jóvenes realizaron una programación para la adquisición de imágenes por medio de las redes neuronales convolucionales YOLO (You only look once, que traducido quiere decir: Tú sólo ves una vez), un algoritmo de open source (fuente abierta) capaz de extraer todas las características de una imagen fija o de video, clasificarlas y detectarlas con precisión de forma autónoma.
“Nosotros recabamos más de tres mil 500 imágenes para realizar terapias multisensoriales, enfocadas a la atención consciente, es decir, que el niño pueda entender lo que le están diciendo y replique los movimientos que le solicitan que realice. Si se hace el movimiento correctamente prenderán unas luces led y una voz que dirá: bien hecho, vamos al siguiente movimiento”, explicaron los ingenieros en Biónica.
Para el desarrollo del prototipo, los politécnicos acudieron con especialistas en autismo, quienes explicaron que en México existen algunas salas multisensoriales donde las y los menores pueden reconocer colores y texturas, pero un robot enfocado a la socialización por atención consciente sería algo inédito y de gran utilidad para las terapias para niños con autismo funcional.
FUENTE: enfoquenoticias