Con acceso a tecnologías muy avanzadas y altas habilidades en su manejo, el cibercrimen se ha convertido en una auténtica economía que, apoyada en el uso de tecnologías como la Inteligencia Artificial (IA) ha incrementado la sofisticación de sus ataques, pues ahora comete el llamado “phishing hiperrealista” con modelos que no se pueden identificar.
La técnica se basa en ingeniería social sofisticada, que utiliza modelos tan elaborados, que impiden la trazabilidad de los sistemas y la identificación completa del suministro, advirtió Lorena Bravo, directora de innovación y seguridad de Google.
Al hablar en el encuentro M360 de la GSMA, en la mesa de ciberseguridad impulsada por Inteligencia Artificial, explicó que los delincuentes usan todo el poder de esta misma tecnología, para “generar campañas en las cuales ni siquiera te da tiempo de reaccionar”.
El phishing hiperrealista, “ya está en su apogeo en América Latina”. A través de él, los delincuentes crean deepfakes, entran a los canales digitales, a los videos, toman el control de las cuentas de sus víctimas y comienzan, por ejemplo, a hacer comunicación en televisión abierta, diciendo que son la persona afectada.
Se trata de un delito que ya cuenta entre sus víctimas a gobiernos y empresas, en cuyo nombre se crean campañas de odio y afectación social: “Ese tipo de cosas te entretienen como encargado de ciberseguridad, mientras los ciberdelincuentes se llevan los datos, hacen ransomware, extorsión y fraudes”.
Esto es posible porque la delincuencia tiene acceso a tecnología de alto nivel, impulsada por Inteligencia Artificial, de manera que esa misma herramienta debe de ser utilizada necesariamente para la defensa de los sistemas, a través de los agentes de IA, que pueden mantenerse actualizados para combatir éste y otros delitos.
“Si yo no pongo el sistema de la seguridad con IA, estoy entregando automáticamente mis datos, mis integraciones, mis aplicaciones, mi experiencia y mi negocio. Cualquier negocio que vayan a hacer, hay que poner un modelo de gobierno con IA”, recomendó.
Para poner en perspectiva los riesgos, explicó que del 98 por ciento de las empresas que ya empezaron a trabajar con Inteligencia Artificial en alguno de sus procesos, el 77 por ciento ya enfrentó una brecha de seguridad. Eso significa “que no estamos considerando cuidar esos modelos con ciberseguridad basados en gobierno de IA”.
Contrario a ello, hoy en materia de ciberseguridad, muchas empresas siguen haciendo las cosas de manera tradicional: implementan “capas y capas de tecnología; crean silos de información y van reaccionando conforme se presentan las amenazas, sin siquiera activar todas las herramientas que tienen disponibles”.
Para empezar, se debe implementar el criterio de “confianza cero”, porque en el análisis de las capacidades de ciberseguridad de algunas organizaciones, se ha encontrado que hay hasta 100 o 150 usuarios con acceso total a todos los sistemas y eso se traduce en brechas de seguridad inaceptables.
De ahí la importancia de implementar modelos de ciberseguridad que se basan en una plataforma capaz de ver todos los posibles incidentes, lo cual sólo es posible utilizando la Inteligencia Artificial, especialmente la ágil e inclusiva de los multiagentes, tendencia de la que se hablará mucho en 2026 y 2027.
Se trata de hacer “una cacería de ataques con inteligencia” y con la tecnología necesaria para enfrentar la rápida evolución y las habilidades de la delincuencia, que está utilizando herramientas de última generación para perpetrar sus crímenes.
C$T-GM