Con la creciente interacción entre humanos, robots, agentes de Inteligencia Artificial (IA) y hasta humanoides en los ámbitos de negocio y empresariales, los riesgos son exponenciales y las vulnerabilidades son cada vez más complejas porque dejaron de ser estáticas.
En ese sentido, la protección contra los riesgos digitales ya no puede depender de sistemas tradicionales, sino que debe centrarse en modelos de IA capaces de evolucionar y aprender por sí solos.
Ramón Alfonso Viñals, director de Ingeniería y líder de IA para Latinoamérica en Cisco, explicó en conferencia de prensa que ante los avances que muestra la Inteligencia Artificial, se requiere una aproximación distinta a los problemas de ciberseguridad, con herramientas de IA 100 por ciento nativas, para atender amenazas de seguridad en todos los procesos, incluyendo detección, protección y aplicación de políticas, por citar algunas.
Al presentar el paquete de herramientas IA Defense, insistió en que el riesgo ahora es mayor, porque las herramientas de IA están llevando los riesgos a un nuevo nivel: “conforme los modelos de IA que ya se usan en muchas industrias hablen con otros modelos de IA y nos acerquemos a la Inteligencia Artificial General, los riesgos van a crecer exponencialmente”, advirtió.
Para dimensionar los peligros de “que algo salga mal con la IA”, señaló que el Índice de Preparación de IA de Cisco de 2024, reveló que sólo 29 por ciento de los encuestados se siente completamente equipado para detectar y prevenir la manipulación no autorizada de la IA.
En ese sentido, los desafíos de seguridad también son nuevos y complejos, con aplicaciones de IA multimodelo y multi nube, con riesgos en todos los niveles y los tipos de modelos, con responsabilidades que recaen en desarrolladores, usuarios finales y proveedores y por eso se requieren herramientas más potentes como la que ahora se presenta.
Por ejemplo, se necesita desarrollar e implementar aplicaciones seguras de IA; detectar oportunamente aplicaciones de IA “sombreadas y sancionadas” en nubes públicas o privadas; identificar vulnerabilidades y recomendar barreras de seguridad; aumentar la seguridad mientras se ejecutan tareas y garantizar el acceso seguro a aplicaciones de IA.
Para explicar el tipo de riesgos que se pueden enfrentar en un mundo donde cada vez más empresas están utilizando ecosistemas de IA complejos, señaló que una firma financiera que utiliza esta tecnología para decidir si una persona es o no sujeta de crédito, puede empezar a presentar “desviaciones” por aspectos como el barrio donde vive el solicitante o el tipo de trabajo que tiene.
Si los modelos siguen por ese camino, seguramente en poco tiempo empezarán a tener “alucinaciones”, porque estarán siendo alimentados por herramientas más grandes y potentes y por eso se necesita que la IA misma trabaje revisando todos los resultados de forma inmediata, como no lo podrían hacer los seres humanos.
Es decir, la misma tecnología que permite elevar la productividad, también puede generar grandes riesgos y por lo tanto, se debe utilizar también para enfrentarlos de manera eficiente, pues prácticamente por su velocidad y tamaño los equipos puramente humanos ya no tienen la capacidad para enfrentarlos.
C$T-GM