Imprimir

Número 163
9 de marzo de 2020

INVESTIGADORES Y ALUMNOS DE LA UAM DISEÑARON

UN ROBOT DE USO DOMÉSTICO

*Recibirá instrucciones mediante señales cerebrales de usuarios sin capacidad de movimiento
 
*Pacientes con esclerosis lateral amiotrófica y síndrome de enclaustramiento, los beneficiarios

 

 

Un robot de uso doméstico capaz de recibir instrucciones de usuarios que, por enfermedad o accidente, carecen de facultades motrices y, por tanto, no son independientes en el desempeño de actividades cotidianas es diseñado por profesores y estudiantes de la Unidad Cuajimalpa de la Universidad Autónoma Metropolitana (UAM).
 
Las interfaces cerebro-computadora –BCI, por sus siglas en inglés– permiten la comunicación con dispositivos mediante señales cerebrales, por lo que este proyecto, liderado por la doctora Alicia Monserrat Alvarado González, adscrita al Departamento de Matemáticas Aplicadas y Sistemas de esa sede universitaria, desarrolla las herramientas de estimulación que faciliten a una persona dar órdenes generales y específicas a un robot con brazos antropomorfos.
 
“Imaginemos a un sujeto que se encuentra paralizado y no puede mover parte alguna del cuerpo ni comunicarse con el entorno, ya sea porque sufrió un percance o tiene esclerosis lateral amiotrófica, síndrome de enclaustramiento u otros padecimientos que, cuando son muy severos, impiden incluso el movimiento de los globos oculares, lo que trae consigo limitaciones y sobre todo aislamiento, aun cuando en muchos casos se esté consciente, despierto y con el cerebro funcionando correctamente”.
 
El reto de este trabajo es obtener las señales de dicho órgano de esos individuos para traducirlas y, mediante interfaces cerebro-computadora, crear instrumentos que les confieran mayor independencia al controlar el aparato de servicio doméstico para que realice, por ejemplo, algunas de las tareas de su cuidador”, apuntó la científica de la Universidad en entrevista.
 
El proceso general que se sigue para que esta interfaz convierta señales cerebrales en instrucciones para dirigir un dispositivo consiste en adquirir –en un intervalo de tiempo– un conjunto de ellas de un usuario mediante electrodos superficiales. Aquéllas serán digitalizadas y amplificadas con un convertidor analógico-digital, y luego filtradas con el fin de minimizar el ruido proveniente de las líneas eléctricas y vaivenes musculares, incluidos los latidos del corazón y secuencias oculares, describió.
 
Después serán empleados algoritmos de extracción de características y clasificación para identificar rasgos particulares de las señales, las cuales se traducirán en instrucciones para controlar la máquina. La actividad cerebral que interesa para el manejo de las BCI es la que puede ser provocada y dirigida de manera consciente, además de inducida mediante la estimulación, pero deberá reflejar siempre un acto de voluntad al transmitir un mensaje.
 
En el proyecto Interfaces cerebro-computadora con perspectivas a su aplicación en robots de servicio doméstico, el grupo de la UAM utiliza potenciales evocados –técnicas para valorar la integridad de vías sensitivas estimuladas– en particular con el componente P300, generado por estímulos visuales y que es estudiado en forma amplia por la comunidad de BCI, además de que controla el tiempo de respuesta del usuario a partir del estímulo, lo cual facilita su análisis.
 
Los universitarios examinan la imaginería mental acotada al reconocimiento de ciertos iconos, aunque el prototipo “no sustituirá del todo al cuidador, sino que será una especie de apoyo”, ya que la idea es que la persona pueda dar instrucciones, por ejemplo, para traer un refresco en condiciones autónomas de desplazamiento por la casa, llegar a la cocina y ofrecer todas las opciones disponibles de bebidas.
 
La información será proyectada en una pantalla al beneficiario, quien observará las bebidas disponibles y decidirá cuál preferiría, todo mediante señales cerebrales traducidas al dispositivo, que al recibir el mensaje sujetará el refresco para entregarlo a la persona. El equipo de la UAM no está enfocado en el diseño de hardware, sin embargo ha construido la parte física del robot, con brazos antropomorfos; sobre todo “estamos creando los algoritmos” para la realización de muchas funciones, entre ellas extraer y procesar la señal cerebral o controlar la navegación del mismo.
 
“Ocupamos optimización multiobjetivo para que vaya de un punto a otro evadiendo obstáculos sin chocar o bien que al sostener una botella pueda moverse con suavidad o, en su caso, estirar el brazo para tomar el objeto de entre varios, sin chocar con los demás. Este es el tipo de algoritmos que desarrollamos”, subrayó Alvarado González.
 
Hace poco “sometimos un artículo que describe un algoritmo para clasificar la señal con muy poco costo computacional y con al menos la misma precisión de clasificación que otros que requieren de gran cantidad de recursos de cómputo, lo que es muy bueno porque significa que podemos utilizar dispositivos portátiles para ello”.
 
En cuanto a la construcción física existen ya la base, la columna y los brazos antropomorfos con cinco dedos, así como dos matrices de estimulación, una estática, que involucra las instrucciones generales “que queremos que lleve a cabo: ir a la cocina por un refresco”, y otra dinámica para que una vez en la cocina pueda hacerse dinámicamente otra matriz, “dependiendo de los objetos que el robot vea”.
 
En una siguiente etapa del proyecto, la mano podría tener tacto, ya que hasta ahora se ha hecho mediante inyección en impresoras 3D con materiales duros, como el plástico, que no tiene adherencia y, cuando intenta sujetar algo, se resbala o no puede apretarlo muy fuerte porque carece de nocirreceptores, termorreceptores, mecanorreceptores o sensores que simulen las cosas “que los humanos podemos hacer con la mano y los dedos”.
 
La intención es introducir esos sensores para que “nos ayuden con los algoritmos” a evitar que el brazo choque o se dañe. Aun cuando puede mover la mano y los dedos “buscamos dotar al dedo pulgar de mayor movilidad para que pueda efectuar otro tipo de acciones y sostener objetos diferentes”.
 
El prototipo está en la etapa temprana de su desarrollo, pero se han alcanzado los objetivos descritos y la pretensión es que logre seguir a una persona que le dará algo para llevar al beneficiario, como puede ser un medicamento. No obstante “surgen muchas preguntas porque la máquina va con un individuo, recibe el fármaco y regresa, pero también debiéramos llegar a la fase en la que pueda darlo al paciente”, lo que si bien implica mucha labor, no se debe soslayar que el potencial llega hasta donde la imaginación pueda, con las limitaciones físicas del robot.
 
La doctora Alvarado González dijo que, junto con el doctor Antonio López Jaimes, codirector del proyecto y profesor del Departamento de Matemáticas Aplicadas y Sistemas; el doctor Gibrán Fuentes y el maestro Hernando Ortega, integrantes del Instituto de Matemáticas Aplicadas y Sistemas, y alumnos de diferentes licenciaturas y posgrados conforman el Grupo Cerebral –por Computational nEuRoscience, Evolutionary roBotics and InteRfAces Laboratory– con el propósito de incorporar a los estudiantes interesados en desarrollar sus trabajos terminales de investigación, tesis y servicio social en temas vinculados con la optimización y el procesamiento de señales.