Soluciones con impacto real, un compromiso.
El contenido considerado “deepfake”, es decir, videos manipulados a través de herramientas que usan Inteligencia Artificial (IA) o técnicas de “aprendizaje profundo” para distorsionar la realidad, será eliminado de Facebook como parte de sus políticas que contribuyen a tener una red social más segura y confiable.
Así, el contenido que haya sido manipulado con el objetivo de engañar a otros, dijo Monika Bickert, Vicepresidente de Global Policy Management, será eliminado si cumple con los siguientes criterios:
*Cuando haya sido editado o sintetizado, más allá de ajustes para mejorar su claridad o calidad, de manera que no son aparentes para una persona común y que podrían llevar a pensar que alguien dijo palabras que en realidad no pronunció.
*Si es producto de la Inteligencia Artificial (IA) o del aprendizaje automático que combina, reemplaza o superpone contenido en un video, haciendo que parezca auténtico.
“Esta política no aplica para contenidos como la parodia o la sátira, o videos que han sido editados para omitir palabras o cambiar el orden de las mismas, precisó la ejecutiva en el documento “Nuestra respuesta contra los medios manipulados”.
En línea con las políticas de Facebook, cualquier audio, foto o video, ya sea un deepfake o no, será eliminado de Facebook si viola las Normas Comunitarias, incluyendo desnudos, violencia gráfica, contenido que procura suprimir votos y discurso de odio.
Los videos que no cumplan con los estándares definidos para su eliminación podrán ser chequeados por uno de los 55 verificadores de información que trabajan en más de 40 idiomas en todo el mundo.
Si un verificador califica una foto o un video como falso, o parcialmente falso, Facebook reduce significativamente su distribución en el News Feed, y si es publicado como un anuncio, lo rechaza.
Esta iniciativa, sostuvo Monika Bickert, también muestra una advertencia, indicando que el contenido fue marcado como falso, a las personas que lo ven, a quienes intenten compartirlo, o a quienes ya lo hayan hecho.
“Este abordaje es crítico para nuestra estrategia y es consistente con lo que hemos escuchado de parte de los especialistas. Si simplemente elimináramos todos los videos manipulados, calificados como falsos por los verificadores, aún seguirían disponibles en internet o dentro del ecosistema de redes sociales. Al etiquetarlos como falsos, aportamos a las personas información y contexto relevante sobre ellos”.
El enfoque de Facebook para hacer cumplir las normas contra los medios manipulados también se beneficia de nuestro trabajo para perseguir a quienes están detrás de estas acciones.
El mes pasado la red social identificó y eliminó una red que usaba fotos generadas con Inteligencia Artificial para enmascarar cuentas falsas; los equipos de Facebook continúan buscando activamente cuentas falsas y otros comportamientos coordinados inauténticos.
“También trabajamos para identificar contenido manipulado, cuyo exponente más difícil de detectar son las deepfakes. Por esa razón lanzamos en septiembre del año pasado el Deep Fake Detection Challenge, que alentó a personas de todo el mundo a realizar investigaciones y generar herramientas de código abierto para detectar las falsificaciones profundas”.
Este proyecto dispone de una financiación de 10 millones de dólares y contempla una coalición de organizaciones, que incluye a la Asociación sobre IA, Cornell, MIT, WITNESS, Microsoft, BBC y AWS, entre muchas otras de la sociedad civil y de la tecnología, de los medios y de la comunidad académica.
Monika Bickert refirió que otra de las acciones realizadas para combatir el contenido manipulado, es la asociación con Reuters, el mayor proveedor de noticias multimedia del mundo, para ayudar a los periodistas a identificar deepfakes y medios manipulados a través de un curso gratuito de capacitación en línea.
Para los grandes volúmenes de imágenes y videos, las organizaciones editoriales dependen cada vez más de terceros, lo que convierte a la identificación de imágenes manipuladas en un desafío mayor; este programa apoya los esfuerzos de las redacciones para esta tarea.
“Mientras nuestras alianzas y nuestras propias ideas evolucionan, lo mismo acontece con nuestras políticas sobre medios manipulados. Estamos comprometidos a invertir y a trabajar con todos los interesados en esta área para encontrar soluciones con un impacto real”.
C$T-GM