Los modelos algorítmicos de Inteligencia Artificial (IA) sobre el comportamiento humano buscan imitar la capacidad de resolver problemas o tomar decisiones; esta tecnología se usa en robots colaborativos o Cobots, que pueden realizar tareas de forma interdependiente con los humanos como compañeros, avances que aún tienen desafíos en cuanto a la seguridad operativa, para evitar riesgos y lograr una adopción generalizada.
Aude Billard, profesora titular y directora del laboratorio LASA en la Escuela de Ingeniería del Instituto Suizo de Tecnología de Lausana (EPFL, por sus siglas en francés) abordó las ventajas de sistemas robóticos de colaboración para aumentar las habilidades de personas con discapacidad, como sillas de ruedas o segways con IA, además de los aspectos que se toman en cuenta para reducir las colisiones y consecuencias de estas en los humanos.
Además de prótesis robóticas de piernas o brazos que pueden aumentar las capacidades, existen sillas de ruedas, parecidas a un segway, que permiten a una persona que ha perdido la movilidad de las extremidades inferiores ser capaz de andar a la misma altura que otra persona; sin embargo, es necesario entender el riesgo que estos dispositivos suponen para los distintos peatones, incluso cuando se cuenta con sistemas de IA.
“No es fácil para los robots percibir… y cuando se mueven en multitudes tienen que percibir muy rápido; pero diría que más que percepción lo que necesita es comprender lo que sucede alrededor, y el medio ambiente es esencialmente humano… entender el comportamiento… y percibirlo en una multitud mixta”, explicó en el webinar “Cobots para el bien: El futuro de la colaboración entre humanos y robots”.
¿Qué pasa cuando el robot choca contra una persona? El impacto de un vehículo semi autónomo o autónomo de este tipo representa un mayor riesgo para adultos mayores y los niños, aún con límites de velocidad de 11 kilómetros por hora establecidos, con diferencias entre países, en algunas regulaciones, planteó.
Si un robot se mueve a 1.5, 1.7 o 2 metros por segundo, dentro de los límites de velocidad regulados pero hay un infante caminando o corriendo que se dirige hacia el vehículo, la velocidad adicional es de tres metros por segundo, por lo que aún con estos límites se pueden provocar lesiones graves a los niños.
La velocidad importa, más si se considera la masa del vehículo, pues hay más inercia cuanto más pesado sea; por ello, si bien se podría limitar aún más la velocidad, disminuir el peso no es realista. También importa que un robot sea capaz de llevar una carga pesada, y debe tener motores fuertes. “Si tiene motores fuertes, a menudo necesita una batería fuerte, muy pesada, por lo que todo eso se suma y nunca estarás dentro de tu límite de 10 kilos”.
Con IA los robots son capaces de evitar obstáculos, pero no todos los obstáculos son objetos, pues cuando se trata de personas se tiene que tomar en cuenta la edad o condición, si son adultos mayores o niños y niñas en edad escolar, o incluso si tienen alguna discapacidad.
“Los robots pueden ver los obstáculos, tienen excelentes sensores, pueden ver más rápido que nosotros, pueden ver en 360 grados… Pero no pueden modelar el comportamiento de los obstáculos todavía, no pueden modelar el comportamiento de un niño frente al comportamiento de un adulto; no tienen un modelo de lo que existe más allá de lo que ven en gran medida, todavía estamos trabajando en que es en gran medida la investigación”.
Por ello, abundó, se necesita un modelo del comportamiento humano y comprender lo que está pasando; modelar el comportamiento y el tipo de peatón, porque si se tiene un niño que está jugando con una pelota, el sistema debe saber que ese pequeño probablemente no es muy consciente de nada, excepto de la pelota, por lo que se necesita reaccionar y anticipar su comportamiento.
“¿Cómo podemos construir esta inteligencia en los robots, que es muy compleja? Entonces, ¿qué nivel de autonomía tenemos hoy? Bueno, tenemos muy poco…. y hay personas que esperan que en algún momento se pueda tener robots totalmente autónomos o casi autónomos, que puedan ser conducidos directamente por la interfaz cerebro-máquina… pero por ahora la comprensión del robot de ese entorno es demasiado limitada”.
C$T-EVP