Siri permite elegir el tipo de voz.
Ganar una batalla contra los prejuicios sexistas y estereotipos integrados en algunos asistentes virtuales, cuya voz ya no es femenina por default, son algunos de los esfuerzos de un grupo de especialistas que elaboraron el estudio “Me sonrojaría si pudiera: cerrar las brechas de género en las habilidades digitales a través de la educación”, de la UNESCO.
Además de poner al descubierto el desequilibrio general existente entre los sexos que crean este tipo de herramientas, el estudio también demostró la brecha alarmante entre hombres y mujeres en las industrias tecnológicas, incluso en países que están a punto de lograr la igualdad de género.
Y aunque la sensibilización es mucho mayor que cuando se realizó la investigación publicada en 2019, debido a que la luna de miel de “hablar a las computadoras” se acabó, Mark West, jefe de proyecto y autor principal del documento, admitió que “extirpar los prejuicios presentes en la Inteligencia Artificial (IA) será una empresa sin fin”.
«Ahora sabemos, a menudo por nuestra experiencia personal, que estos sistemas no son perfectos. Por ello nos mantenemos atentos al ‘racismo’, el ‘clasismo’, el ‘sexismo’, a la ‘discriminación por razones de edad’ y otros ‘ismos” que están integrados a la Inteligencia Artificial».
Recién estrenadas estas capacidades a través de software en smartphones, como Siri, estos asistentes contenían prejuicios de género y estereotipos, cuando la tecnología tendría que contribuir en formar un mundo más igualitario.
“Muchas de las respuestas sexistas más estereotipadas han perdido terreno. Ya Siri no dice: ‘Me sonrojaría si pudiera hacerlo’ cuando un usuario insulta a su voz ‘femenina’, entonces podemos afirmar que hay algo de progreso, incluso si tocamos fondo. Los asistentes vocales actuales tienen muchas más posibilidades ahora que antes de interrumpir los propósitos ofensivos”.
El especialista sostuvo que tras la publicación del informe, con el que hicieron un llamado a las empresas tecnológicas a erradicar el uso de voz femenina predeterminada para los asistentes virtuales, Apple respondió positivamente y los usuarios de iOS pueden elegir el tipo de voz de Siri.
“De hecho, Apple ha abandonado su antigua práctica que partía de la idea de que las personas prefieren una voz femenina para ajustar el cronómetro de la cocina, registrar las citas en el calendario o leer los mensajes electrónicos. Se estima que iOS está instalada en más de mil millones de dispositivos en todo el mundo, esto significa entonces un cambio que tendrá mucha repercusión”.
Sin embargo, reconoció que en el caso de Alexa, Amazon publicó recientemente sus principios rectores titulados “Communication Guidelines for Alexa” donde tratan de explicar que Alexa no tiene género, pero con varias contradicciones.
Por ejemplo, según los principios rectores, Alexa “no tiene género” y no deberíamos catalogarlo con palabras tales como “ella”. Pero más adelante, en el mismo documento, Amazon se refiere a Alexa como “ella” y precisa que la tecnología tiene “una personalidad femenina”.
“Los principios rectores revelan los problemas que surgen cuando se trata de dotar a una máquina de una personalidad humana en función del género. Si una tecnología de IA habla como una mujer y tiene una ‘personalidad femenina’, los usuarios vincularán naturalmente esta tecnología con mujeres reales”.
Al margen de este caso, Mark West destacó cómo también han observado progresos en otros ámbitos, por ejemplo que los gobiernos conceden mayor importancia a las voces, los acentos y los comportamientos de género, ya sea mediante los chatbots o los sistemas que ayudan a los viajeros a utilizar el transporte colectivo.
No obstante, advirtió que lo que sigue siendo un problema es la transparencia, pues “cuando alguien tiene la impresión de que un sistema de IA puede resultarle injustamente desfavorable, es difícil probarlo”, y por ello las recomendaciones de la importancia de los algoritmos de control aún son pertinentes.
“Hay que sacar a los sistemas y motores de IA de su hueco negro para estudiarlos y probarlos. Si una empresa pretende tener un sistema imparcial, tanto mejor: que lo pruebe, que muestre lo que hay debajo, que explique cómo funciona el sistema y cómo aprende”.
En este sentido, el especialista subrayó que es importante no olvidar que mientras sean los seres humanos quienes controlan las decisiones, las opiniones y las recomendaciones que proporciona la tecnología estas reflejarán nuestras propias teorías y visión del mundo.
Más exactamente, subrayó, “las visiones del mundo de grupos relativamente reducidos de personas –con una proporción abrumadora de hombres– que elaboran los sistemas de IA. En este sentido, no hay nada de “artificial” en la IA”.
C$T-EVP