La llamada Inteligencia Artificial (IA) no es tan lista y desde luego no es autónoma en absoluto. Está alimentada por seres humanos en todas las etapas de su proceso y en su estado actual y desarrollo futuro, puede causar serios problemas para las personas, no sólo en cuanto a la protección de sus datos personales, sino en un amplio abanico de Derechos Humanos (DDHH), advirtió Grecia Macías, abogada de la organización Red en Defensa de los Derechos Digitales (R3D).
Explicó que la llamada “inteligencia artificial”, no es otra cosa que una serie de sistemas automatizados que se nutren, alimentan y son operados por personas, sin la auténtica capacidad para generar sus propios procesos, como nos han hecho creer y por lo tanto, son absolutamente susceptibles de incurrir en sesgos negativos, como la discriminación por razones étnicas o económicas, o en la criminalización de ciertos grupos.
En entrevista con ConsumoTIC, Grecia Macías sostuvo que es indispensable imponer lineamientos y controles a los sistemas automatizados de procesamiento de datos, porque hay varios de ellos que pueden comprometer muy seriamente los derechos humanos de las personas, por ejemplo, en los casos de sistemas que usan datos biométricos de los ciudadanos.
Explicó que el fenómeno del ChatGPT como paradigma de la IA, se ha vuelto muy popular, pero es casi irrelevante, en comparación con otros sistemas que verdaderamente pueden comprometer de manera seria los derechos de las personas, porque pueden llevar aparejados discriminación, violaciones al debido proceso, a la libertad de expresión e incluso a la libertad física de los ciudadanos.
Por ejemplo, en Aguascalientes se utiliza un sistema de reconocimiento facial para vigilancia policiaca, cuyo uso puede derivar en abusos a los derechos humanos, lo mismo que en Coahuila, donde se emplea el sistema llamado Dahua, que ha sido empleado previamente en China para perseguir minorías.
Otro de los sistemas de IA es el llamado Predicting Profiling (perfilamiento predictivo), el cual supuestamente señala qué tan probable es que una persona reincida en un delito. Eso se usa para determinar, por ejemplo, si una persona acusada de un ilícito merece o no salir bajo fianza.
El problema es que estos sistemas no toman la decisión de manera autónoma y no “piensan”, estrictamente hablando. Por el contrario, son alimentados por personas que pueden introducir categorías con sesgos contra minorías raciales, mujeres, personas trans, periodistas o activistas de derechos humanos, por citar algunos y perjudicarles de manera violatoria a sus derechos.
Pero como se trata de un sistema al que se califica de “inteligencia artificial”, se puede usar como pretexto para decir que la decisión fue estrictamente fría e imparcial, porque “la tomó la máquina y no un ser humano”, lo cual es impreciso por las razones señaladas.
En ese sentido, la abogada de R3D indicó que podemos y debemos detenernos en el boom de las llamadas “inteligencias artificiales”, porque es falso que no se pueda hacer nada para impedir su crecimiento exponencial. En realidad, son las personas quienes alimentan a estos sistemas y la información con la que lo hacen también debe ser motivo de regulación y protección.
No obstante, reconoció que no todo está perdido y no es imposible imponer la regulación necesaria para cuidar los derechos de las personas. Por ejemplo, en México existe un entramado jurídico e instituciones encargadas de hacerlo cumplir como la Ley de Protección de Datos Personales y el INAI que, si bien son perfectibles, ofrecen a las personas una protección real contra estos abusos que pueden incrementarse exponencialmente a la sombra del “desarrollo imposible de parar” de esta tecnología.
De hecho, el Parlamento Europeo está trabajando en generar estándares de protección no sólo contra el abuso que se pueda cometer contra los datos personales de los ciudadanos, sino incluso con el mal uso de su información biométrica y otros delitos similares y lo deseable es que esos parámetros también se apliquen en México, con las adecuaciones necesarias.
En todo caso, R3D y otras organizaciones de la sociedad civil están unidas y trabajando en hacerle ver a los legisladores, tomadores de decisión, funcionarios de gobierno, académicos y a la sociedad en su conjunto, la necesidad de generar un diálogo informado y serio, para desmantelar la “falsa narrativa” que las empresas han querido imponer en el sentido de que la IA se desarrolla por sí sola y no hay forma de detenerla.
“Eso es una mentira producto de una campaña de mercadotecnia muy bien diseñada y ejecutada”, reconoció, porque de hecho las empresas saben que otros mundos sí son posibles y sí es viable detener la evolución de estos sistemas que todavía dependen mucho de los seres humanos en todas las etapas de su proceso y por eso pueden contener sesgos discriminatorios y serios riesgos para los derechos humanos de muchos grupos vulnerables.
“¿Quién alimenta los sistemas, con qué información y con permiso de quién?”, cuestionó, al señalar que es falsa la percepción de que no hay nada qué hacer, por ejemplo, cuando un sistema de cómputo nos pide aprobar términos de uso que no nos satisfacen. Existen mecanismos para defendernos de esta clase de falsas disyuntivas que en realidad no significa un consentimiento informado, sino una imposición.
De ahí que se deba realizar una ambiciosa reforma legal para que todos estemos mejor protegidos “frente a estos sistemas automatizados que no podemos calificar de inteligencia artificial”, porque en realidad no piensa y no actúa de manera autónoma, sino dirigida por personas con intereses específicos.
C$TG-GM