Para orientar un uso ético de la Inteligencia Artificial (IA) en las políticas públicas, regulaciones e instrumentos institucionales, la Secretaría de Ciencia Humanidades, Tecnología e Innovación (Secihti) y la ATDT presentaron los “Principios de Chapultepec”, un decálogo que busca garantizar que esta herramienta tecnológica ayude al desarrollo de las personas, sin afectar sus derechos.
La también llamada “Declaración de ética y buenas prácticas para el uso y desarrollo de la Inteligencia Artificial”, fue presentada por la Secihti y la Agencia de Transformación Digital y Telecomunicaciones (ATDT) en el Castillo de Chapultepec (de ahí su nombre) y busca garantizar que esta tecnología no se convierta en un elemento de discriminación.
El principio número uno es que la IA debe ampliar los derechos, nunca reducirlos: “los sistemas deben proteger los derechos humanos y evitar decisiones automatizadas que reproduzcan prejuicios sociales, generen nuevas formas de exclusión o atenten contra el derecho a la información”.
De ahí la necesidad de una revisión continua de los datos y criterios que utiliza un sistema para corregir eventuales reproducciones de desigualdades de género, étnicas, condición social o discapacidad para corregirlo de inmediato.
Como segundo principio se establece que toda decisión apoyada en IA debe tener responsables humanos. Su uso en el ámbito público debe sustentarse en marcos que definan quién diseña, quién decide y quién responde por los efectos de la política basada en tecnología.
Por eso el tercer principio es claro: “Si una decisión no puede explicarse, no debe automatizarse”. Esto implica que las personas puedan saber cuándo una decisión fue apoyada por un sistema automatizado, comprender de manera razonable cómo se llegó a ella y reconstruir el proceso que la produjo.
“La inteligencia artificial se gobierna mejor cuando se decide en colectivo”, señala el cuarto principio establecido, en tanto que el quinto indica que “la inteligencia artificial solo es valiosa si genera bienestar para todas las personas”, es decir, esta tecnología debe evaluarse no sólo por su eficiencia técnica, sino por su capacidad para generar valor público y para ampliar los derechos de la ciudadanía y reducir desigualdades.
El decálogo indica en su punto 6, que “antes de automatizar, hay que comprender a quién y a qué afecta”, porque la IA no sólo es un software, sino que detrás de ella hay infraestructura física, consumo energético y recursos naturales, por lo que su desarrollo debe ser sostenible.
“La tecnología estratégica debe responder a las necesidades del país” señala el principio número 7, que enfatiza la importancia de que herramientas de este tipo fortalezcan las capacidades del país para decidir de manera autónoma sobre sus tecnologías.
Como octavo principio se establece que el desarrollo de la IA requiere fortalecer la educación y el conocimiento en el país, incluyendo la formación continua de talento especializado y reconversión de perfiles profesionales, impulsando investigación interdisciplinaria.
En el noveno se estableció que “la inteligencia artificial no puede ser ajena a la diversidad cultural y lingüística del país”; en tanto el décimo principio indica que “los datos son un bien público que deben cuidarse con responsabilidad”, porque los modelos se construyen a partir de imágenes, documentos, información personal y grandes bases de datos.
Esto implica respeto a la privacidad y al interés público y prevenir usos indebidos, con suficiente protección a la información sensible y fortalecimiento de la ciberseguridad durante todos los procesos de vida de los sistemas, bajo los principios de confiabilidad y legitimidad social.
Ambas dependencias recordaron que “los avances tecnológicos nunca son socialmente neutros” y por ello el aprovechamiento de la IA exige una visión pública y marcos de gobernanza responsables, como se busca normar a través de estos principios.
C$T-EVP






































