La democratización del conocimiento a través del ChatGPT es una indiscutible realidad, pero es precisamente esta característica la que puede ser explotada por la ciberdelincuencia o personas que sin tener experiencia pueden participar en actividades delictivas.
“Es muy fácil para un usuario solicitar cosas al ChatGPT y que devuelva información de una manera amigable, escribir artículos científicos, volverlas a un lenguaje más natural… De cierta manera hay una democratización del conocimiento, es algo muy bueno… Hay que hablar también de la democratización del cibercrimen”, sostuvo Sol González, Security Researcher de ESET.
El prototipo de chatbot con Inteligencia Artificial (IA) está causando revuelo por su capacidad de “generar texto informativo y coherente de manera rápida y precisa en una amplia variedad de temas”, como se describe a sí mismo este sistema que posee un algoritmo de procesamiento del lenguaje natural llamado Transformer y cuyo desempeño es monitoreado y evaluado para realizar mejoras y corregir errores.
Antes de comenzar a usarlo, la versión pública que está disponible en la red advierte al usuario de las limitaciones, entre ellas que puede generar información incorrecta y producir instrucciones perjudiciales o contenidos sesgados. Y es esta misma herramienta, accesible en la página web de OpenIA, con la que se puede intentar crear contenido malicioso pero no de manera simple como se cree.
“Cuando detecta que puede llegar a ser un comportamiento malicioso de lo que se le pide, una de dos: no me puede dar la información y dice que eso es realmente malicioso o puede devolver, por ejemplo, una porción de código que detecta como malicioso, con una alerta de color naranja, con la que dice que podrían estar violando las políticas ChatGPT”.
Sin embargo, la experta de ESET reconoció que es posible engañar a la misma IA del robot conversacional, pues no es lo mismo pedirle que redacte un mail de phishing, directamente, que solicitar un texto con el que se pretenda “alertar” a clientes de alguna compañía sobre algún problema.
“Podría decir necesito armar un correo donde se le informe a los clientes que su cuenta ha sido blanqueada por tal; o sea, cuando uno le da cierta justificaciones y le esconde realmente lo que hay, ahí es cuando empieza a funcionar de la manera en la que quiere en sí el criminal… Si es uno que sabe cómo pedir las cuestiones, buscará la manera de obtener ese resultado”.
Como una herramienta cualquiera, el uso que se le dé a esta tecnología depende de la persona, por lo que no está exenta de que los cibercriminales saquen provecho para realizar estafas a través de diversas tácticas ya conocidas como el phishing, malware o incluso para generar fake news y tuits en nombre de otra persona.
En algunas pruebas, expuso en entrevista para ConsumoTIC, lo que más ha llamado la atención es que se le puede pedir cómo desarrollar ciertas porciones en código que se comporten como malware, lo que fue detectado por ESET pero también por otros centros de investigación.
“Es capaz de desarrollar toda una campaña simplemente pidiéndole que se comporte de cierta manera el programa… pero también es para lo cual se viene el mercado del cibercrimen… Estamos viendo que cada vez se está democratizando ese conocimiento, no hace falta ser un experto para desarrollar una porción de código para que robe, por ejemplo, fotos o datos del celular”.
Aunque la experta se atrevió a afirmar que ya existe malware que se está desarrollando en ChatGPT, consideró muy temprano para hablar de qué tanto podrían crecer las campañas maliciosas con estafas en las que pudiera estar involucrado este chatbot inteligente.
“Esto sigue estando muy verde y lo vamos a seguir viendo en el desarrollo de este año, porque también la herramienta se está actualizando constantemente de acuerdo a lo que se le va preguntando… ChatGPT se reentrena a medida que se le va preguntando, calificando las respuestas; incluso el chat hoy en día no está a su desarrollo absoluto, está en vías de desarrollo”.
Además, sea creado o no con ayuda del chatbot inteligente, el contenido malicioso como malware, phishing u otros, puede prevenirse con las recomendaciones de ciberseguridad que se han dado a conocer desde antes, como evitar abrir ligas de correos de personas desconocidas, no entregar contraseñas ante supuestas actualizaciones de banca en línea, entre otras.
“Más allá del origen, de que sea ChatGPT, los ataques van a ser los mismos, así que para contrarrestar tenemos que sumar cada vez más a los usuarios, en el sentido de la educación, poder concientizar sobre la tecnología, de cómo identificar, por ejemplo, una fake new o phishing”.
ChatGPT, enfatizó, es disruptivo en cuanto la interacción hombre-máquina; es uno de los primeros tipos de tecnología que está dando pistas, o es la punta, de cómo en el futuro las personas interactuarán con los ordenadores, porque está siendo más sencillo pedir a los ordenadores “que se comporten como queremos”.
“Lamentablemente hay que hablar también de la democratización del cibercrimen, ese término del que me parece que no todos están hablando… Ahora, cada vez, con este nivel de abstracción, que ayuda mucho el software a poder aprender, tenemos esa veta, que también se puede utilizar para para hacer cibercrimen”.
C$T-GM