Tecnologías como el machine learning y la inteligencia artificial, han ayudado positivamente a identificar y eliminar los discursos de odio en las redes sociales, pero este trabajo todavía depende mucho de los seres humanos y por lo menos en los próximos cinco años, es posible que la presencia de personas sea imprescindible en ese proceso, anticiparon expertos reunidos en el diálogo sobre discursos de odio en redes sociales digitales, realizado en la Universidad Iberoamericana Campus Santa Fe.
En el encuentro organizado por la Red para la Alfabetización Mediática e Informacional (AMI), en conjunto con varias instituciones públicas y privadas, los expertos coincidieron en que si bien las plataformas tecnológicas que soportan a las redes sociales tienen una responsabilidad fundamental en distinguir y regular estos contenidos, son los propios usuarios los que deben tener claro el uso responsable de los espacios, y su regulación debe tener como eje los derechos humanos.
En el encuentro que forma parte del Hackathon AMI 2023, donde precisamente se analiza la presencia de los discursos de odio en las redes sociales y su repercusión en la sociedad, Glenda Michel, gerente de políticas públicas para Meta en México, Centroamérica y el Caribe, explicó que gracias al uso de la tecnología para detectar esta clase de cosas, en Facebook e Instagram, hoy en día de cada 10 mil visitas, sólo una o dos incluyen contenidos de odio.
Sin embargo, todavía los equipos humanos son muy importantes para revisar estos contenidos y determinar si de verdad son o no contenidos de odio. Pero además, advirtió que preocupa el hecho de que parece que la sociedad está normalizando esta clase de discurso, pues en el contexto de la grave violencia que vive el país, ciertos contenidos pasan en cierta forma inadvertidos o no se les da importancia, aunque la tienen.
Ejemplificó el caso de un contenido donde se hacía un comentario acerca de una persona de religión judía –mensaje que en sí mismo no era ofensivo– pero desató una larga cadena de comentarios que sí lo eran. Y en ese sentido, es necesario que cada persona sea consciente de no participar en esa clase de conversaciones.
En su oportunidad Paula Saucedo, oficial del Programa de Protección y Defensa de Artículo 19, sostuvo que no es admisible normalizar ningún tipo de discurso de odio y para regular los contenidos se debe aplicar una mezcla de conocimiento humano y tecnología, siempre aplicados desde el paraguas de los derechos humanos, entendiendo que cualquier mensaje de esta naturaleza que se deje pasar en redes, tiende a generar un daño creciente y progresivo, de manera que se debe atender desde el principio.
Pero más allá de eso, se debe entender que es muy difícil encontrar la respuesta correcta en cada caso y por ello es muy importante atender las causas que generan en la sociedad odio y manifestaciones como la xenofobia, la discriminación, el racismo y otras conductas que parten, alimentan e incrementan la confrontación.
A su vez, Clara Luz Álvarez, abogada, catedrática de la Universidad Panamericana y miembro del Sistema Nacional de Investigadores, advirtió sobre la gravedad de lo que significa normalizar el discurso de odio, como a veces parece ocurrir con generaciones más jóvenes que, ante mensajes de esta naturaleza, simplemente se encogen de hombros y dicen: “no le hagas caso”.
“Estamos en un contexto de país en emergencia porque vamos normalizando la violencia y lo mismo pasa con el discurso de odio. Todos debemos ser conscientes de que esto no es normal. No podemos acostumbrarnos al discurso de odio”, advirtió, al señalar que por mucha tecnología y reglamentación que apliquen las plataformas, “nada va a sustituir a lo que hagamos en lo individual”.
Reconoció que no hay una regla absoluta, porque el tema no es “blanco o negro” y por eso se debe ejercer la prudencia individual, acompañada de las revisiones y regulaciones que se hagan desde las plataformas, pero en todo caso, una fórmula práctica de regular sería pedirle a las personas que antes de compartir contenidos “piensen si estarían de acuerdo que eso se lo dijeran a su mamá o a su hermana”. Se trata de una fórmula simple que ayuda a tener una conciencia más clara de los discursos en las redes.
A su vez, Jorge Calderón, secretario de estudio y cuenta de la Suprema Corte de Justicia, reiteró que el tema tiene que enfocarse desde los derechos humanos, para no caer en la tentación de creer que al retirar ciertos contenidos, se está afectando el derecho a la libre expresión.
Todo depende de los contextos. Por ejemplo, en Europa son mucho menos tolerantes con la retórica nazi que en Estados Unidos y eso se debe a la historia de cada país. Recordó un caso en México, donde una persona que tenía tatuado un símbolo nazi, fue despedida de una empresa cuyos dueños (y la mayoría de los empleados) eran de religión judía, porque no quiso cubrir su tatuaje. Él se quejó porque consideraba injusto el despido, pero la Corte le dio la razón a la empresa, por el contexto.
Lo mismo se puede extrapolar a las redes sociales. Todo depende del contexto de cómo y dónde se publican cuáles mensajes, y en función de eso se debe considerar si se trata o no de discursos de odio.