En los últimos dos años, México ha registrado un alarmante aumento de 300 por ciento en la detección de deepfakes de voz, es decir, contenidos creados a partir de Inteligencia Artificial (IA) que permite manipular y falsificar audios con una precisión asombrosa, y ante lo cual tecnologías como la biometría pueden ser un claro muro de contención.
“Estas herramientas pueden recrear la voz de una persona de manera realista, imitando su entonación, timbre y hasta su acento con una precisión asombrosa. Esta tecnología ha generado preocupación debido a su potencial para ser utilizada con fines maliciosos, como la suplantación de identidad, la manipulación de discursos o la difusión de información falsa”, señala Veridas.
Desde la perspectiva de Eduardo Azanza, CEO de la firma de tecnologías de identidad digital y biometría, el enfoque de las deepfake de voz se basa en el desarrollo de algoritmos avanzados capaces de identificar patrones y características distintivas que ayudan a determinar la autenticidad de un audio.
Veridas, que en la actualidad colabora con instituciones gubernamentales como el INE, y en el sector financiero con instituciones como BBVA, Santander y Banco Azteca ha detectado que sólo en los últimos dos se ha registrado un aumento significativo del 325% en el uso de la biometría de voz por parte de sus principales clientes al analizar datos de producción reales.
“Esta tendencia demuestra que la biometría de voz está ganando popularidad entre los usuarios, ya que proporciona un método de autenticación seguro y conveniente. El aumento de la biometría de voz no es sorprendente, dadas sus ventajas sobre los métodos de autenticación tradicionales”.
En México, refiere la firma, existen casos preocupantes de deepfakes de voz que han impactado desde políticos que son víctimas de discursos manipulados hasta empresas que enfrentan amenazas de chantaje o extorsión.
De acuerdo con cifras oficiales del Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI), se estima que en los últimos dos años ha habido un aumento del 300 por ciento en la detección de Deepfakes de voz en el país.
Al señalar como esta tendencia refleja la urgencia de tomar medidas para combatir este problema y proteger la integridad y seguridad de las personas y organizaciones, Veridas sugiere algunas medidas para evitar ser víctima de este fenómeno digital:
Verificación biométrica de voz: Se trata de una medida eficaz para garantizar la seguridad de las transacciones y la comunicación. Al implementar estas soluciones, las empresas pueden garantizar la autenticidad de las transacciones y minimizar los riesgos asociados con los deepfakes de voz.
Controlar el proceso de captura: La tecnología de anti-fraude de voz analiza el audio para detectar lo que se conocen como “ataques de presentación”. Este tipo de ataques son aquellos en los que el atacante reproduce un audio pregrabado a través de un altavoz. Este altavoz puede ser el de un dispositivo móvil, un estéreo, un PC o similar.
Cuando se reproduce un audio a través de un altavoz, la voz presente en el audio contiene matices que la diferencian de una voz auténtica que se reproduce a través de las cuerdas vocales.
El motor de anti-fraude de Veridas está entrenado para detectar estos matices y, por lo tanto, distinguir los casos en los que la voz es emitida por las cuerdas vocales de los casos en los que la voz es reproducida a través de un altavoz.
Educación y concienciación: Las personas y las empresas pueden beneficiarse de su experiencia participando en programas de capacitación y talleres que abordan las técnicas de detección y prevención de deepfakes de voz. Al estar bien informados, se puede identificar y responder de manera más efectiva a las amenazas.
Validación de fuentes de audio: Antes de confiar en la autenticidad de un audio, es importante verificar su origen. Al verificar las fuentes de audio, se puede reducir el riesgo de caer en la trampa de los deepfakes de voz. Usar una solución de biometría de voz confiable y segura es crucial para las empresas que buscan implementar esta tecnología como parte de su proceso de verificación de identidad.
Fortalece la seguridad de tus dispositivos: Actualiza regularmente tus dispositivos y aplicaciones con los últimos parches de seguridad. Utiliza contraseñas fuertes y activa la autenticación de dos factores para agregar una capa adicional de protección. Al fortalecer la seguridad de tus dispositivos, reducirás las vulnerabilidades y minimizarás el riesgo de ser víctima de manipulaciones de audio.
“Estas medidas son solo algunas de las muchas estrategias que se pueden implementar para protegerse contra el Deepfake de Voz. Consultar con expertos en seguridad y seguir las mejores prácticas es fundamental para garantizar una protección adecuada contra esta amenaza en constante evolución”.
C$T-GM