La Inteligencia Artificial (IA) ya presente en siete de cada 10 organizaciones en México, es también la puerta de entrada de los ciberdelincuentes, quienes usan la tecnología para alterarla, evadir reglas, robar o falsificar datos, incluso “envenenarlos”, es decir, generar información falsa para comprometer su precisión y resultados, advirtió Manuel Moreno, director de Seguridad en la Información IQSEC.
Recordó que según estimaciones de NTT Data, 71 por ciento de las organizaciones en América Latina, incluyendo México, ya han adoptado la IA, pero esa misma tecnología es aprovechada por la delincuencia cibernética para crear contenidos y códigos maliciosos, pero también para usos más complejos y profundos que maximizan el daño.
“Este tipo de ataques son conocidos como aprendizaje automático adversario y consisten en engañar a los sistemas de IA, introduciendo datos falsos o manipulados, lo que puede afectar la precisión de los modelos, especialmente si no están diseñados para identificar y resistir la falsificación de información”, es decir, la misma solución de IA que potencia el crecimiento de la empresa, puede ser usada para dañarla profundamente.
Los delincuentes saben que al exponer a los sistemas de IA a datos no confiables, estos se vuelven en una amenaza para quienes lo usan. Incluso, el Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST, por sus siglas en inglés), documenta varios tipos de ataques que se clasifican bajo el concepto de “aprendizaje automático adversario”.
Estos se dividen en cuatro categorías: evasión, se refiere a confundir a un modelo de reconocimiento para evitar la identificación de una persona; envenenamiento con la inserción de datos falsos; privacidad, inferencia de información confidencial, y el abuso, con la generación de deep fakes.
Todos estos tipos de ataques implican diferentes desafíos de mitigación, explicó el especialista. “Por ejemplo, cuando un chatbot es alimentado con datos tóxicos, como lenguaje o comentarios ofensivos, puede aprender a generar respuestas que causen malestares a los usuarios. Si bien es posible corregir manualmente algunas de estas respuestas, la escala de los datos involucrados hace que esta tarea sea prácticamente imposible”.
Uno de los problemas más serios es que los conjuntos de datos utilizados para entrenar la IA son, en su mayoría, demasiado grandes para ser monitoreados y filtrados, por lo que la falta de supervisión abre la puerta a la corrupción de datos para alterar o deteriorar la información.
El propio NIST reconoce que no existe un método infalible para proteger a la IA de ser mal dirigida y por eso el llamado a las organizaciones para que comprendan las amenazas que enfrentan al adoptar esa tecnología.
Como medidas de seguridad para proteger la privacidad de los datos, el especialista de IQSEC, compañía centrada en ciberseguridad e identidad digital, recomienda realizar evaluaciones continuas de impacto en la privacidad para evitar posibles vulnerabilidades; desarrollar herramientas de gestión y control de la privacidad; implementar técnicas de cifrado y anonimización.
También se deben llevar a cabo procesos de autentificación rigurosos e implementar los llamados “modelos federados”, es decir, que los modelos de IA se entrenen en datos distribuidos en múltiples ubicaciones, sin que esta información cruda se comparta de manera central.
Además, no se puede perder de vista que la gestión eficaz de los datos usados para los sistemas de IA es fundamental para la calidad, integridad y seguridad, sin perder de vista que la gobernanza de los datos también es central en el mantenimiento continuo.
C$T-GM