La filtración de datos personales, vigilancia extrema, “cámaras de eco” o subrepresentación de personas en modelos creados para el acceso a educación o salud, son algunos de los riesgos que implica el desarrollo de soluciones basadas en Inteligencia Artificial (IA), los cuales pueden anticiparse y mitigarse con protocolos claros para el uso de esta tecnología.
“La adopción de la IA continúa creciendo a un ritmo sin precedentes a nivel mundial. Globalmente, la adopción ha aumentado en un 56 por ciento entre 2015 y 2021; la velocidad de entrenamiento de los modelos de IA aumentó en 94.4 por ciento desde 2018 y en comparación con el 2015, hay 30 veces más patentes presentadas usando esta tecnología”.
Cristina Pombo, coordinadora de fAIr LAC dentro del Banco Interamericano de Desarrollo (BID), destacó que un uso responsable de la IA puede mejorar los empleos, los servicios de salud, la calidad educativa, y desde que se empezó a hablar de su potencial para mejorar el bienestar social, gobiernos y emprendedores han dirigido su atención hacia la solución de un sinnúmero de problemas sociales y creación de políticas públicas.
Sin embargo, en el blog “Los riesgos de la inteligencia artificial y algunas soluciones”, reconoció que el uso de sistemas con IA en los procesos de toma de decisiones conlleva ciertos riesgos debido a los potenciales impactos directos o indirectos de la implementación de estas tecnologías.
Tal es el caso de la filtración de datos personales con el uso de esta tecnología, que puede comprometer el bienestar de las personas; la extrema vigilancia y manipulación de organizaciones privadas o gubernamentales tengan acceso a información que alimenta a la IA.
“Las ‘cámaras de eco’ o ‘filtros burbuja’ que se presentan cuando se está expuesto a las mismas ideas, noticias y/o hechos, lo que es un fenómeno común entre los usuarios de redes sociales y termina fortaleciendo sesgos preconcebidos. Esto es específicamente peligroso entre los tomadores de decisiones en cualquier área, pero aún más entre aquellos que trabajan en políticas públicas”.
La experta se refirió también a la subrepresentación en los modelos creados por la inteligencia artificial, especialmente en cuestiones relacionadas al acceso a la salud y a la educación.
“Afortunadamente, este tipo de riesgos pueden anticiparse y mitigarse si nos aseguramos de que los implicados en el desarrollo y uso de estas tecnologías establezcan protocolos claros para cada etapa de su ciclo de vida”, subrayó la experta.
Por ello, para promover un uso y adopción responsable de la IA y no pasar por alto los riesgos, a través de su iniciativa fAIrLAC el BID elaboró cinco herramientas abiertas para quienes lideren proyectos y para equipos que desarrollan soluciones basados en esta tecnología.
La primera es una autoevaluación ética para sistemas desarrollados en agencias de gobierno. Es un cuestionario que revisa los aspectos más importantes a tener en cuenta para mitigar potenciales riesgos éticos tanto en la fase de diseño como en el desarrollo de una solución de IA. Otra es una autoevaluación pero dirigida al ecosistema emprendedor.
Asimismo, existen dos manuales, uno para quien esté dirigiendo, desde una entidad pública, un proyecto que use sistemas de soporte de decisión, que acompaña en las diferentes etapas de decisión a los proyectos con IA; el otro, para el equipo técnico encargado del desarrollo del modelo.
“Utilizando el ciclo de vida de los sistemas de IA como marco de análisis, el manual ofrece orientación técnica a los directores de proyecto, así como a los equipos desarrolladores del modelo (a los que llamamos el equipo técnico), para mejorar sus procesos de toma de decisiones y sus resultados en la construcción de una solución de IA”.
La Guía de auditoría algorítmica es otra herramienta pensada en el despliegue de una solución y en la necesidad de rendición de cuentas, en la que resaltan las implicaciones y consecuencias que tiene el uso de sistemas automatizados en la toma o soporte de las decisiones que afectan a las personas, con el fin de entender la necesidad de implementar una auditoría y el proceso que esta conlleva.
“Es importante destacar que las herramientas siguen un proceso vivo de iteración y calibración a través de la práctica, y tienen siempre al ser humano en el centro. Solamente así aseguramos que efectivamente estamos promoviendo el uso ético de la IA que podrá mejorar vidas”.
C$T-GM