La Inteligencia Artificial (IA) no es un nuevo problema para la protección de datos personales, porque éstos ya estaban ahí expuestos al mundo desde que se creó internet; el tema es que ahora esa tecnología “es como si le hubieran puesto esteroides al sistema” y por ello la protección pasa tanto por la adopción de marcos generales que se puedan aplicar en varios países y por la responsabilidad personal de los usuarios.
Al participar en el panel “El activo más importante para la IA”, como parte del e-Tech Evolving Education, la abogada especialista en protección de datos y marcas, Isabel de Obdalia, advirtió que es tarde para pensar que la IA es el riesgo central para los datos personales.
“Ese barco ya zarpó”, señaló al advertir que los datos están expuestos por las personas “desde que colocaron en Facebook las fotos de sus hijos y su perro”.
Ahora el tema es que la IA maximiza el análisis de la información y puede crear perfiles de las personas en cuestión de minutos, cuando a un ser humano le llevaría días, además de que se alimenta de toda la información que uno coloca al interactuar con el internet de manera poco cuidadosa, por ejemplo, cuando se aceptan términos y condiciones de cualquier sitio o servicio, sin leer las condiciones.
Explicó que si bien la mayoría de las legislaciones en América Latina considera la protección de datos, en algunos casos es más limitada, como la Ley de Protección de Datos Personales en México, que aún no considera el tema de los datos biométricos.
En el mismo sentido, Javier Monzó, fundador de Klarway, empresa dedicada a la supervisión de autenticidad de quienes realizan exámenes por internet, dijo que en su caso, al trabajar con datos biométricos de las personas, su empresa (con sede en Argentina) se somete a las leyes de cada país en que opera, y en el caso de México, si bien no existe protección legal de los datos biométricos, el INAI sí ha emitido lineamientos que le resultan muy útiles.
Sin embargo, coincidió con Isabel de Obdalía en el sentido de que una de las técnicas más eficaces para evitar complicaciones legales en ese sentido, es que las empresas con operación en varios países, tomen como referente la legislación más restrictiva que sirva como estándar de protección.
Sobre el particular, Yamil Rabbat, fundador de Ed Machina, una herramienta de IA que sirve a las escuelas a monitorear el desempeño académico de cada alumno para evitar deserciones, consideró que uno de los sistemas más eficientes es el aplicado por la Unión Europea, que creó una legislación supranacional en la materia.
Sin embargo, como en América Latina eso es complejo, una de las fórmulas más viables es atenerse a los lineamientos creados por la UNESCO para la regulación de la IA, que idealmente los Estados nacionales deberían adoptar para proteger a sus ciudadanos, si bien, lo mejor sería que estos mismos marcos se apliquen de la forma más uniforme posible por región.
Sobre el mismo particular, José Francisco Rivas, director general de Makebot, una empresa dedicada a enseñar a niños programación y robótica, consideró que la protección de los datos es un tema muy amplio que se debe de considerar para todos los desarrollos de IA, es importante recordar que esta herramienta lo único que hace es recopilar información y presentarla de acuerdo al orden en que haya sido alimentada.
En ese sentido, convocó a no tenerle miedo, sino incorporarla a los conocimientos básicos que los niños deben aprender de ahora en adelante, para que sepan qué es un algoritmo, cómo funciona y cómo se crea, para que tengan elementos de análisis y herramientas para cuidar su privacidad.
Desde el punto de vista legal, Isabel de Obdalía señaló que uno de los puntos importantes es que cada quien sea responsable de lo que publica en internet, Incluso, reconoció que los avisos de privacidad son imprácticos porque son tan extensos que nadie los lee.
Recientemente una empresa de Washington D.C. hizo un experimento al colocar una cláusula en su aviso de privacidad, que decía si el usuario estaría dispuesto «venderle su alma a la empresa, y que si no estaba de acuerdo, avisara para que le reembolsaran 200 dólares.
El resultado fue que de aproximadamente 10 mil cuestionarios, sólo alrededor de 200 se negó a aceptar esa cláusula y cobró el premio, lo cual demuestra que nadie lee los términos, y permite ventilar que lo importante que es la responsabilidad del usuario, pues no hay ley que pueda proteger a quien no quiera protegerse a sí mismo.
En todo caso, coincidió con los demás panelistas en que la inteligencia artificial ya está aquí y opera a diario en muchos ámbitos, de suerte que no se le debe satanizar, sino que se le debe abrazar, con la debida conciencia.
C$T-EVP