El experto en robótica y neurociencia de la Universidad de Osaka imparte cátedra magistral en la IBERO
Durante el foro “Construyendo el futuro de la IA”, el Dr. Asada explicó su teoría de las “neuronas espejo” aplicada a los robots y sus desarrollos en el diseño de prototipos.
Hace un par de años, la noticia de un robot que era capaz de sentir dolor y mostrar expresiones faciales acordes a ese malestar, circuló en medios de comunicación internacionales bajo titulares como “Affetto, el androide que siente dolor” o “el robot japonés con mayor expresividad se llama Affetto”; detrás de este avance de la ingeniería mecánica y mecatrónica está el Dr. Minoru Asada, un académico e investigador que desde hace más de una década dirige su propio laboratorio de robótica en la Universidad de Osaka.
El Dr. Asada, quien ha sido Presidente de la Sociedad de Robótica de Japón, sorprendió a las y los estudiantes de la Universidad Iberoamericana con una cátedra magistral en la que explicó cómo ha sido el avance de sus prototipos que “sienten dolor” y habló de su teoría de las “neuronas espejo”, detrás del diseño de algunos de sus robots que son capaces de aprender por sí mismos nuevas habilidades tanto practicando con base en sus capacidades y limitaciones, como imitando las acciones de otros robots.
Ante una audiencia que llenó el Auditorio José Sánchez Villaseñor de la IBERO, el catedrático de la Universidad de Osaka mencionó en su ponencia –titulada Rethinking Autonomy of Humans and Robots--, que “el dolor tiene relación con el tacto, desde pequeños, los seres humanos podemos distinguir un simple toque, de algo que nos genera dolor, el cual parte del sistema nervioso central y se transmite a través de la médula espinal, hay un mecanismo receptor que manda la señal al centro del dolor del cerebro”.
Durante su charla, que tuvo lugar el 31 de agosto de 2023 en el marco del foro “Construyendo el futuro de la IA”, el Dr. Minoru Asada mostró su dominio no sólo sobre temas relacionados con ingeniería, sino también de neurología, neurociencia e incluso de filosofía y de derecho, relacionados con el desarrollo de la robótica, la cual, en su opinión, siempre va acompañada de Inteligencia Artificial.
Volviendo al “dolor”, el académico señaló que “hay otras vías donde se genera, como el sistema anterolateral que da información a diferentes partes del tallo, de la médula cerebral; a veces, hay mecanismos neuronales que entran en colisión, literalmente hablando, y producen dolor, nosotros (él y los investigadores que colaboran en su laboratorio) hemos diseñado sensores muy sofisticados, que se colocan sobre un dispositivo que simula el tacto”.
Boquiabiertos, los y las asistentes, observaron cómo una persona golpea el sistema que simula el tacto del robot y éste responde con muecas y gestos: “pueden ver que hay contracciones nerviosas que activan el músculo para que reaccione a la sensación de dolor, para una expresión facial correspondiente a todo esto, hemos estudiado el rostro humano con los diferentes movimientos que pueden observar aquí”.
Y ante la mirada asombrada de las y los estudiantes de la IBERO, el Dr. Asada agregó: “Hay 16 niveles de libertad que determinan movimientos específicos de la piel, de la epidermis del rostro, entonces, hemos diseñado aquí para los movimientos faciales estos esquemas, las primeras etapas de los experimentos que hemos hecho sobre el dolor y las expresiones faciales están aquí esquematizadas”.
¿Para qué han dotado de “dolor” a los robots?
El Dr. Minoru explicó un día antes, el 30 de agosto, durante una mesa de diálogo con otras y otros académicos de diversas disciplinas, que sus desarrollos en robótica fueron diseñados para “sentir dolor” porque esto genera un sentimiento de empatía y dado que Japón enfrenta un problema social relacionado con las altas tasas de adultos mayores, sus robots podrían ser utilizados para el cuidado médico y como acompañamiento, por lo cual, deben contar con habilidades sociales.
Retomando su ponencia, el investigador explicó su teoría sobre “las neuronas espejo” y puso un ejemplo: “En el cerebro de este mono, de lado derecho, hay algunas neuronas que se activan y él percibe el movimiento, esta misma neurona activa a otras conforme él sienta dolor o no, ahí es donde intervienen las dimensiones de percepción y reacción, hay neuronas que ejecutan y observan al mismo tiempo, esto hace que un mono pueda prever las acciones del otro”.
Con base en este principio, el Dr. Asada mostró un robot y dijo: “Estamos viendo los grados de movimiento que pueden efectuar, dentro de este contexto de percepción del dolor, el robot puede entrenar y aprender sus propios movimientos bajo determinadas sensaciones”.
Los robots aprenden de ellos mismos y de otros
Las y los asistentes al foro de IA organizado por la IBERO seguían con atención la descripción de sus avances: “Esta es una proyección de esas imágenes, de entrada parecen muy similares, pero podemos ver la trayectoria que hubo entre la percepción, el aprendizaje y luego la conducta resultante”.
“Después de aprender, la máquina plasma en una imagen los movimientos imaginados que podrían tener lugar después de haber tomado decisiones; ese tipo de imitaciones son ‘egocéntricas’ porque consisten en imaginar las propias acciones”, dijo el académico japonés.
“Ahora, el robot puede ir más allá de la imitación egocéntrica, puede aprender de otros sin tener experiencia previa observándolos, si uno empuja una palanca, vemos cómo otro lo imita”, mencionó el Dr. Asada, quien agregó “si vemos que el robot toma una acción, una decisión de empujar una palanca, entonces hay dos tipos de mecanismos implicados aquí; uno es la decisión egocéntrica, basada en el sistema neuronal y el otro, la observación de una acción, que es hacerse una imagen de eso mismo”.
La sorpresa de la audiencia no detuvo al ingeniero japonés, quien siguió explicando: “Todavía no hemos llegado al punto en el que el robot pueda, por visión, determinar y tomar decisiones pero estamos trabajando sobre esto; en este caso, el sistema nervioso observa la acción y sus propios movimientos, que implican la vista y el tacto”.
Importante, que la robótica se desarrolle de forma interdisciplinarComo era de esperarse, la ponencia del Dr. Minoru Asada generó muchas dudas en las y los estudiantes, quienes le preguntaron “si usted observa una acción del robot que no es la que buscaba y debe detenerla, ¿cómo puede manejar esto desde una perspectiva ética?”, el académico respondió “podemos usar un comando, una órden motora y el robot detiene su acción”.
Reconoció que la ética es una disciplina que resulta fundamental para el desarrollo de la robótica y la Inteligencia Artificial porque “cada vez es más difícil que los seres humanos controlemos por completo las decisiones que tomarán los robots y deben estar programados bajo esta perspectiva”.
De hecho, la primera parte de su Conferencia Magistral estuvo dedicada a explicar cómo el concepto de “autonomía” es entendido desde diversos contextos como el ingenieril, el de la neurociencia, el de las leyes y el de la ética. Asimismo, compartió el background filosófico del que han partido las investigaciones de su laboratorio, que se centran particularmente en Giambattista Vico.
Si quieres conocer más sobre robótica y neurociencia, te compartimos la charla completa del Dr. Minoru Asada.
Además de las investigaciones que hemos mencionado en esta nota, el académico habla de otros proyectos que han realizado en su laboratorio como un robot de Leonardo DaVinci que crearon en 2015 y la Robocup, un campeonato de fútbol de robots, que se celebra cada año desde 1997. ¿Conocías los avances en robótica del Dr. Minoru Asada?
FUENTE: ibero