La edición de un video o audio para que sea gracioso o viral demuestra las cualidades creativas de las personas, e incluso es común que se suban contenidos así en las redes sociales, pero ¿en qué momento un material editado, con elementos tomados de la realidad, puede convertirse en un instrumento de acoso entre niñas, niños y adolescentes?
“Los deep fakes utilizan el aprendizaje profundo (una forma de aprendizaje automático) para crear imágenes, videos o audios que falsifican acontecimientos, de ahí su nombre. Suelen duplicar la voz y/o los rasgos faciales de un individuo, para luego pegarlos en una grabación o fotografía existente”.
De acuerdo con Digipadres, el sitio de ESET que promueve la protección infantil en el mundo digital, si bien para crear materia de este tipo requiere de equipo técnico especializado, las versiones más simples de estas falsificaciones se pueden hacer con aplicaciones móviles, como FaceApp o FaceSwap.
El acceso que tienen niños y niñas a las tecnologías ha llevado los “deep fakes” a las escuelas, donde se comparten no sólo como diversión, sino que a menudo se utilizan como medio de burla o incluso de acoso, pueden dañar su relación con la escuela por la desagradable experiencia al mostrarlos en situaciones en las nunca estuvieron.
“Con el desarrollo de apps que ponen los deep fakes en manos de una gran variedad de personas, los videos sintetizados han llegado a las escuelas y se han convertido en un medio para el acoso”.
Estos contenidos se han utilizado para desacreditar a las personas y perjudicar sus carreras; en un principio, la mayoría tenía contenido pornográfico, tendencia que continúa hasta hoy, sólo que con el desarrollo de las tecnologías “cada vez es más complicado establecer el límite entre la realidad y la ilusión”. En 2019, la empresa de inteligencia artificial Deeptrace descubrió que 96 por ciento de los “deep fakes” que estaban en internet eran pornográficos.
Sin embargo, pueden utilizarse para temas educativos, por ejemplo, que los menores se conviertan en protagonistas de sus programas, videojuegos y películas favoritos. En el Museo Dalí de Florida se utilizó esta tecnología para generar videos interactivos del artista catalán, que saluda a los visitantes, haciendo el museo más atractivo para el público joven.
Las recomendaciones para padres y cuidadores es que el primer paso para prevenir el uso indebido de los deep fakes es ver algunos de estos videos con los niños y niñas, analizar juntos por qué existen, para qué se pueden utilizar y sobre la responsabilidad y el consentimiento.
También es importante ayudar a identificar estos video falsos, buscando movimientos inusuales, como parpadeos no naturales; es difícil que estos videos repliquen con exactitud los atributos físicos más sutiles: el audio puede no corresponderse completamente con el movimiento de los labios de la persona, y puede haber fallas a lo largo de las líneas del rostro o cerca de la línea del cabello.
En cuanto a iluminación también hay diferencias, ya que la cara puede ser más clara u oscura que el cuerpo, o puede haber una sombra inusual, o cada uno de los ojos puede reflejar una imagen diferente.
Otro aspecto importante es hablar sobre lo que comparten online y ofrecerles alternativas, como compartir sus fotos únicamente en chats privados con la familia o los amigos cercanos.
Como adulto es importante respetar su privacidad, pero también pedirles que recorran juntos las redes sociales para ver el tipo de contenidos que consumen. “Si deciden utilizar apps que les permiten crear deep fakes, como FaceApp o FaceSwap, es importante probarlas juntos y utilizar la aplicación para entretenerse, lo más importante es concientizar y educar”.
C$T-EVP