En México actualmente se ha intensificado el debate sobre políticas públicas relacionadas con Inteligencia Artificial, muestra de ello son los foros promovidos por organismos como el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI), pero si los gobiernos de América Latina colaboraran en la materia, se potenciarían los resultados, derivado de las fortalezas relativas que cada uno tiene.
Y es que, a nivel regional, los gobiernos desarrollan estrategias de manera desigual, con enfoques distintos y con una idea más general sobre gobierno digital, una agenda o algún programa relacionado, de acuerdo con CAF, el Banco de Desarrollo de América Latina.
En su publicación ExperiencIA. Datos e Inteligencia Artificial en el sector público, expone que, por ejemplo, Argentina, Brasil, Chile, Colombia, México, Perú y Uruguay se han dotado de una estrategia nacional en IA o están en proceso de hacerlo, pero solo el último país ha centrado su estrategia específicamente en el sector público.
“La mayoría de los gobiernos de la región no ha formalizado una función gubernamental para el liderazgo de datos y, ahí donde se han adoptado leyes para la protección de datos, no son específicas para la IA y pasan por alto aspectos clave de los marcos y principios éticos de esta tecnología”, lo cual se considera una gran debilidad.
Al abordar la adopción de sistemas de IA, cuyos beneficios están mejor documentados en el sector privado que en el público, el CAF sostiene que las capacidades ofrecidas por esta tecnología también pueden ser aprovechadas en diversos frentes del sector público.
Son tres áreas que cubren buena parte de responsabilidades y entidades gubernamentales, sobre todo en el mejoramiento de la formulación, ejecución y evaluación de políticas públicas; diseño y entrega de servicios a ciudadanos y empresas, así como enriquecer la gestión interna de las instituciones estatales.
Adicionalmente, la tecnología puede ser direccionada para temas específicos, como la salud, el transporte público, la defensa nacional, la educación o la administración de la justicia, según estipulan los dos primeros capítulos, cuyas autoras son María Isabel Vélez, Cristina Gómez Santamaría y Mariutsi Alexandra Osorio Sanabria, junto con Tibisay Sánchez Quintero.
No obstante, el reporte también advierte un riesgo para el sector público: ser superado en su capacidad de actuar de manera estratégica y atender de manera rápida y eficiente las necesidades sociales por el uso estratégico de las grandes compañías sobre la cantidad de datos que obtienen de sus clientes, lo que las hace mejor informadas para tomar decisiones.
“A medida que las aplicaciones de IA se expanden hacia áreas sensibles, como la defensa nacional, la ciberseguridad o la bioingeniería, la actuación de los gobiernos cobra mayor relevancia. No obstante, mantener la prudencia ante las promesas de la IA puede ser la posición más sensata y productiva que adopten los gobiernos en su intento de lograr mayores beneficios”, añade.
En este escenario, para alcanzar un equilibrio entre la explotación de una tecnología que le permitirá dar un gran salto en las áreas referidas y el establecimiento de límites para garantizar el bienestar social, enumera aspectos como la privacidad y confidencialidad, transparencia y explicabilidad; inclusión, equidad o representatividad, así como seguridad e integridad.
Sobre el primero señala la importancia de que los gobiernos garanticen que los sistemas de IA diseñados e implementados se ajusten a las normas y regulaciones vigentes sobre protección de datos en cada país y que los ciudadanos conozcan sus derechos, la regulación aplicable y cómo pueden realizar cualquier reclamación en caso de considerarlo necesario.
Respecto a transparencia y explicabilidad puntualiza que no basta que las entidades usuarias divulguen los algoritmos utilizados y su forma operativa.
“Es necesario que esa información sea entendible para todos los actores involucrados (programadores o diseñadores, órganos de regulación, usuarios finales o afectados). No menos importante es que estos actores sean informados de antemano del uso de sistemas de IA, su propósito, sus capacidades y limitaciones”.
En cuanto a inclusión, equidad o representatividad, refiere que uno de los mayores retos para los gobiernos es promover acuerdos sociales alrededor de esos sistemas, su entendimiento, alcance o relevancia para poblaciones específicas, así como sobre lo que se espera de la IA, ya que sus algoritmos pueden arrojar resultados inexactos o erróneos con el riesgo de que conduzcan a la discriminación o la exclusión.
Finalmente, al mencionar la seguridad e integridad, enfatiza que tanto los algoritmos de IA como el software y hardware que están en su base son propensos a errores y susceptibles a la manipulación, por lo que los fallos de este tipo pueden representar serios riesgos para individuos, organizaciones y países.
“La explotación y entendimiento de la tecnología, particularmente por los gobiernos, no puede enfocarse sólo en los aspectos técnicos. También pasa por considerar principalmente las respuestas y actitudes sociales, por mantener su responsabilidad de garantizar el respeto de los derechos humanos y por generar diálogos y acuerdos alrededor de lo que espera la sociedad de la IA. Solo de esa manera será posible construir la confianza necesaria para lograr su plena adopción”, concluye.
C$T-GM