La sola idea de utilizar sistemas de Inteligencia Artificial (IA) para prevenir delitos es en sí misma violatoria de derechos humanos, porque contradice el principio constitucional de la presunción de inocencia y demuestra cómo los tomadores de decisión han abrazado “una narrativa solucionista, según la cual, la tecnología va a venir a solucionar todos nuestros problemas, incluso aquellos que no hemos resuelto en toda la historia”, advirtió Grecia Macías, abogada de la Red de Defensa de los Derechos Digitales (R3D).
En entrevista con ConsumoTIC respecto al punto de acuerdo que presentó la diputada panista Mariana Gómez del Campo Gurza ante la Comisión Permanente del Congreso de la Unión, para exhortar a la Secretaría de Seguridad y Protección Ciudadana y sus homólogas en las 32 entidades, para que utilicen IA en la prevención del delito, la especialista señaló que se trata de una medida desproporcionada y “no hay forma de que pase los estándares más elementales para justificar su aprobación”.
Lo que propone la diputada Gómez del Campo ya lo intentaron antes en Estados Unidos y terminó mal, como fue el caso Compas, donde se utilizaban sistemas automatizados para calcular la peligrosidad de una persona y la probabilidad de que cometiera un delito en el futuro, con base en criterios como dónde vivía, a qué grupo racial pertenecía o incluso cuántas veces había sido detenida por la policía, incluyendo ocasiones en que ni siquiera se le levantó una infracción.
Esto lleva a reproducir los sesgos discriminatorios que ya existían desde antes, como lo demostró la organización de periodistas independientes ProPública, que dio seguimiento al uso de estos sistemas en el sistema judicial de Estados Unidos, donde se perpetuaron discriminaciones basadas sobre todo, en el color de piel de las personas.
De ahí que ya el uso de inteligencia artificial para prevenir delitos esté superado e incluso prohibido en la legislación europea y, sin irnos más lejos, en México “la sola idea es jurídicamente incompatible con la legislación vigente a nivel constitucional” incluso sin necesidad de entrar al análisis de la tecnología propuesta.
Muchos tomadores de decisión están tomando la narrativa de las empresas desarrolladoras de esos sistemas, que hacen creer que no se pueden equivocar, pero de acuerdo con Grecia Macías, es una especie de “pensamiento mágico suponer que una tecnología va a llegar a salvarnos a todos, ignorando que estos sistemas son igual de imperfectos que nosotros, porque son controlados por personas”.
En ese sentido, recomendó a los legisladores y otros tomadores de decisiones a que no repliquen esta narrativa y por el contrario, se detengan, “den dos pasos atrás y tomen en cuenta que no tienen que ponerle inteligencia artificial a todo lo que se mueva, (porque) no hay garantías de que esto lo arregle”.
Con todo, se dijo optimista de que estas advertencias se escuchen en el contexto de un diálogo informado dentro de la Alianza Nacional de Inteligencia Artificial, la cual se encuentra en un proceso de análisis de propuestas de los diversos sectores, recogidas en un ejercicio recientemente lanzado.
En entrevista por separado, Elena Estavillo, directora del Centro i para la Sociedad del Futuro, coincidió en que el tema de usar la inteligencia artificial para prevenir delitos tiene impactos éticos importantes y advirtió que “la IA se equivoca y tenemos que entenderlo. Pareciera una entidad superior, infalible, neutra y no es así”.
Tan existen los riesgos discriminatorios, por lo que la Unión Europea ha prohibido el uso de estas tecnologías justo en la forma como propone la legisladora panista y cuestionó, “¿cómo llegamos a un uso responsable si no estamos teniendo esa discusión en el país?”, al considerar que esta propuesta “deja ver la ligereza con la que se está abordando el tema”.
Cabe recordar que la propuesta presentada por la legisladora panista, en sus considerandos, establece que “las aplicaciones de inteligencia artificial (IA), han marcado el inicio de una nueva era de oportunidades únicas que ayudan a los organismos de orden público a prevenir verdaderamente los delitos” y también señala que esta tecnología “se está utilizando cada vez más de manera exitosa por las fuerzas del orden público para medidas de prevención de delito de alto impacto”.
Contrario a esta idea, Elena Estavillo insistió en que estas tecnologías sí se equivocan y pueden llevar a ahondar el peligro en el que se coloca a ciertos grupos, por ejemplo los periodistas, que serían totalmente vulnerables si se llegan a saber sus movimientos, revelar sus fuentes de información e incluso identificar a sus familias, domicilio y otros datos personales sensibles.
En ese sentido, dijo que el tema se debe abordar, sin duda, “pero necesitamos una discusión amplia, informada, con especialistas en varias materias. No basta traer a los desarrolladores de tecnología, a las empresas tecnológicas. Hay que traer a la academia, las organizaciones sociales, expertos en filosofía para definir qué es ético y qué no es; especialistas en derechos humanos. Necesitamos mucho esa discusión, antes de presentar iniciativas de este tipo”.
Recordó que la prohibición establecida por la Unión Europea, no fue producto de la ocurrencia de un europarlamentario al que le aprobaron la propuesta la semana siguiente. “No. Llevó meses discutir todas las aristas del tema, hasta que se llegó a la conclusión de que definitivamente no se debe usar la inteligencia artificial en esa forma”.
Sin embargo, eso no significa que no se use la herramienta de ninguna manera. Sí es posible, incluso en temas delictivos, cuando ya hay delincuente identificado y cuyo delito se ha demostrado, pero se trata de otro tipo de abordaje con consideraciones distintas, porque de otro modo se puede poner en riesgo a grupos vulnerables e individuos sin razón.
C$T-GM