La clonación de voces para cometer delitos ya dejó de ser una actividad propia de hackers altamente sofisticados, que requerían horas de voces reales para generar discursos falsos y que, además, se escuchaban antinaturales o robotizados.
Por el contrario, hoy en día cualquiera que tenga acceso a internet, puede encontrar numerosas aplicaciones de Inteligencia Artificial gratuitas, capaces de lograr voces de una calidad prácticamente imposible de distinguir respecto a las reales, a partir de grabaciones breves auténticas y con ello llevar a cabo fraudes y robos.
Ricardo Robledo, director general de Tu Identidad, plataforma especializada en confirmación de identidad para empresas y personas, advirtió que “la clonación de voz es un proceso que utiliza IA para analizar y copiar las características únicas de la voz de una persona, tales como tono, ritmo, inflexiones y pronunciación. Todo ello se logra mediante el uso de modelos o redes generativas antagónicas (GAN, por sus siglas en inglés), que es un tipo avanzado de “deep learning”.
Las herramientas para lograrlo se obtienen gratuitamente en internet y abundan los tutoriales para conseguir los mejores resultados, al grado que, de acuerdo con un estudio de McAfee, firma especializada en antivirus, el 70 por ciento de las personas en el mundo son incapaces de distinguir una voz clonada de una real y de quienes han sido víctimas de estos delitos, hasta 77 por ciento reportan pérdidas económicas, ante la clonación de voces de familiares y amigos que normalmente presentan situaciones catastróficas como accidentes graves o secuestros.
“Las redes generativas antagónicas constan de dos redes neuronales que colaboran entre sí, pero con objetivos opuestos, de manera que se entrenan mutuamente para generar voces cada vez más realistas con la posibilidad de replicar las sutilezas del habla humana, por lo que prácticamente no hay manera de distinguirlas”, explicó el especialista.
A diferencia de lo que pasaba antes –y que todavía se cree–, ya no se requieren audios extensos y claros para clonar una voz. Existen herramientas que pueden replicar la voz con muestras que apenas duren segundos. Con estos fragmentos se entrena al modelo de IA que aprende a imitar dicha voz y puede generar palabras o frases nuevas. Una vez entrenado el modelo, los delincuentes generan audios que suenan exactamente como la voz clonada.
Los delincuentes suelen utilizar estas reproducciones para solicitar dinero, información confidencial o realizar movimientos financieros, o incluso simular accidentes o secuestros para solicitar dinero a sus víctimas.
Los defraudadores investigan a sus potenciales víctimas, recolectan información de fuentes públicas y redes sociales. Luego seleccionan a un familiar o conocido de la persona cuya voz clonaron y utilizan ese recurso para hacer una llamada de emergencia falsa, que normalmente termina con el robo de recursos económicos.
Frente a tal escenario, Robledo recomendó volver a lo básico de la seguridad digital: acordar de antemano con familiares y amigos cercanos ciertas palabras o preguntas clave que sólo ellas conozcan, para confirmar la identidad de aquellos que supuestamente nos llaman.
También, evitar compartir videos donde se escuche la voz real de las personas y no compartir detalles de nuestra vida personal en plataformas públicas y redes sociales, pues de ahí se perfila a quien pueda tener recursos económicos suficientes y tomar su voz para clonarla.
Es importante mantener una supervisión constante de las propias cuentas de redes sociales u otras plataformas en línea para detectar actividad inusual y reportarla de inmediato, además de mantenerse informados sobre las técnicas más comunes de estafa y las nuevas amenazas relacionadas con la clonación de voz, compartiendo con familiares y amigos esta información, a fin de que todos se mantengan alerta.
C$T-GM