Hollywood arraigó una idea equivocada de la IA.
La Inteligencia Artificial (IA) debe ser creada por grupos más diversos e inclusivos de personas, ser concebida como una tecnología que tiene límites y que debe ser más equitativa, porque a través de los algoritmos puede reproducir desigualdades estructurales existentes, como las relacionadas con el género y la raza, advirtieron especialistas.
La consultora Gartner indicó que para 2022 se prevé que 85 por ciento de los proyectos de IA darán resultados erróneos, debido al sesgo y los algoritmos de datos o a los equipos responsables de manejarlos, afirmó Kay Firth-Butterfield, directora de IA y Aprendizaje Automático y miembro del Comité Ejecutivo del Foro Económico Mundial.
“Cuando estamos pensando en IA en específico, es que debemos preguntarnos cuál es la herramienta adecuada para la tarea, porque a veces la herramienta adecuada es una computadora y en ocasiones es algo simple como un libro en las manos de un niño sentado en el regazo de sus padres. Una no es mejor que la otra”, aseveró Meredith Broussard, profesora asociada en el Instituto de Periodismo Arthur L. Carter de la Universidad de Nueva York.
La autora del libro Artificial Unintelligence: How Computers Misunderstand the World (Desinteligencia artificial: cómo las computadoras comprendieron mal el mundo), sostuvo que hay concepciones erróneas sobre lo que la IA es y lo que no es. La idea de Hollywood de lo que es la IA, dijo, está profundamente arraigada en nuestros cerebros de manera colectiva, y en algún momento imaginamos que la IA va a liderar o permitir que un robot tome el mando.
“Esto no es verdad. Necesitamos conscientemente diferenciar entre las imágenes que tiene Hollywood sobre la IA y la realidad, y lo que es real sobre la IA es que son matemáticas”, lo que nos permite contar con una idea más realista de lo que puede o no puede hacer.
En ese sentido, expuso que hay problemas sociales que no pueden ser resueltos en absoluto por las matemáticas y tienen que ser resueltos por seres humanos, pero por ello es importante entender colectivamente qué es la IA y cuáles son sus límites para usarla mejor y de manera más equitativa.
Se puede comenzar viendo cómo funciona el training data, los datos que son usados para entrenar los modelos de IA y los sistemas de toma de decisiones automatizadas, y aquí podemos valorar preguntándonos si los datos ¿son equitativos, representan a las mujeres, a las personas trans y al género no binario? Necesitamos una doble comprobación de los datos que estemos usando.
Al referirse al reconocimiento facial que se aborda en el documental “Coded Bias”, expuso que en éste destacan que la IA es mejor reconociendo hombres que mujeres, personas de piel blanca que de piel oscura, por lo que, advirtió, si no podemos mejorar nuestros sistemas de reconocimiento facial no deberíamos usarlos en absoluto, porque estos sistemas están desproporcionadamente armados contra comunidades vulnerables, en especial las comunidades de color.
En el panel virtual sobre “El desafío del sesgo algorítmico contra las mujeres y las soluciones de AI”, organizado por la Unesco y el Foro Económico Mundial, Broussard se pronunció por una regulación que inicie con una auditoría algorítmica, y por incluir a más mujeres en el área de la IA y darles mejores salarios.
“Por muchos años hemos pretendido que el ciberespacio, que el ámbito digital es un ámbito que está más allá del alcance del gobierno pero no es verdad del todo. El ciberespacio es el mundo real, el mundo digital es el mundo real, y deberíamos tratarlo como el mundo real, en lugar de fingir que los gobiernos no tienen ningún alcance ahí”, sostuvo.
C$T-GM