Investigadores de la Universidad del Valle de México (UVM) fabricaron una gorra y lentes para asistencia y rehabilitación, que a través de señales fisiológicas personalizables permiten a pacientes con algún tipo de cuadriplejia comunicarse y controlar una silla de ruedas.
Estos dispositivos, desarrollados con ayuda de sensores con Inteligencia Artificial (IA), no son invasivos y pueden usarse con movimientos musculares, oculares o mecánicos, explicó Francisco David Pérez Reynoso, investigador del Centro de Investigación, Innovación y Desarrollo Tecnológico (CIIDETEC-UVM).
De acuerdo con la Organización Mundial de la Salud (OMS), que considera a la discapacidad como un problema de salud pública global, al 2020 había más de mil millones de personas con algún tipo de discapacidad, de las que alrededor de 190 millones tiene dificultades funcionales importantes.
En México, el Censo de Población y Vivienda 2020 muestra que hay más de 6 millones de personas con algún tipo de discapacidad, de las cuales 48 por ciento tiene problemas de movilidad, para caminar, subir o bajar.
“Uno de los principales problemas de los avances que existen, es el grado de personalización para aplicar terapia de rehabilitación o para adaptar un sistema de asistencia a las características individuales de los usuarios, de ahí la importancia de este trabajo”, destacó Pérez Reynoso.
El líder de este desarrollo Humano-Máquina explicó que estas interfaces son entrenadas con IA, para que independientemente de la señal o el sensor que se le coloque, lo pueda interpretar como un comando de control; es decir, la máquina se adapta al usuario al descifrar sus movimientos, lo que permite reducir de meses a un par de semanas la adaptación del robot asistencial.
La silla de ruedas es controlada con movimientos de la cabeza a través de una gorra y una red neuronal; en tanto, los lentes asistenciales funcionan con señales musculares a través del ojo, que permitirían al paciente escribir texto, pedir agua o comunicarse a través de símbolos o colores.
El investigador comprobó que el diseño de la Interfaz Humano-Máquina permitió clasificar las señales musculares en función del tiempo de contracción y que el modelo implementado a través de una red neuronal logró la personalización y clasificación en tiempo real para la generación de comandos de movimiento de un robot virtual.
Este trabajo de investigación fue publicado en el artículo Reconocimiento de patrones de señales EMG mediante aprendizaje automático para el control de un robot manipulador, por la revista internacional de divulgación científica y tecnológica Sensors.
C$T-GM