Con todos los riesgos y oportunidades que supone, la Inteligencia Artificial (IA) es una tecnología que debemos aprovechar, sin perder de vista que lo más importante es el respeto a los derechos de las personas y que siga siendo el ser humano quien la dirija, coincidieron expertos, al resumir en cuatro palabras el futuro que le espera: incertidumbre; oportunidad; desarrollo y esperanza.
Durante el panel “Reflexiones sobre la Inteligencia Artificial: el futuro hoy”, celebrado en el marco de la Semana de la IA, organizada por el Instituto Federal de Telecomunicaciones (IFT), los expertos indicaron que conviene tomar con cautela el desarrollo de esta tecnología, para aprovechar sus ventajas y limitar sus posibles efectos negativos, porque éstos también existen.
En la mesa coordinada por Guadalupe Michaca, directora general de ConsumoTIC, Daniela Rojas, oficial senior de Programas de Eon Institute, reconoció que el futuro de la IA a veces “le quita el sueño”, no sólo por los sesgos que pueden imperar en la aplicación de estos modelos, que lo mismo pueden reflejar inequidad al elaborar los algoritmos, replicar otros ya existentes, o incluso los de otros indicadores.
Por ejemplo, citó un estudio donde el Foro Económico Mundial pidió a un grupo de expertos reflexionar sobre cuáles son los principales riesgos para 2024, entre los cuales definieron los temas económicos, políticos, de tecnología y medio ambiente. Para este año, en el Top 5 de esta lista están la ciberseguridad y la desinformación generada por IA.
En la proyección para el corto y mediano plazo, los resultados fueron similares, pero para más allá de 10 años, los expertos indicaron que la principal preocupación son los impactos negativos en los sistemas de Inteligencia Artificial y por ello sugirió enfocarse en privacidad, protección de datos personales, que “si caen en manos equivocadas, pueden generar muchos problemas”, especialmente porque México recibió en 2023 más de 93 mil millones de intentos de ciberataques.
Además, recordó que 90 por ciento de las denominadas deep fakes, se refieren a contenido íntimo no consensuado, con especial peligro para mujeres y niñas, sin desestimar el hecho de que la mayoría de las personas no tienen un conocimiento completo de la tecnología y sus posibles efectos, incluso en el ámbito empresarial.
Sobre el mismo particular, Alberto Farca Amigo, jefe de proyectos de Centro México Digital, destacó que la ética debe guiar la evolución de esta tecnología y presentó los “10 principios para el desarrollo confiable, responsable y seguro de la IA en México”, elaborado por la organización que él representa.
Se trata de: beneficio social e inversión; centrada en el ser humano y respeto a los derechos humanos de todas las personas (principio alineado con el criterio europeo de regulación de la IA); Igualdad, equidad y no discriminación; transparencia, explicabilidad y auditabilidad; robustez, seguridad y protección; privacidad y protección de datos; sostenibilidad ambiental; colaboración multisectoral y apoyo a MiPymes; desarrollo de talento e investigación multidisciplinaria; y cooperación internacional y liderazgo, como herramienta de diseño eficaz de políticas públicas.
Con respecto a esta tecnología y su desarrollo futuro, la pregunta clave es “¿qué México queremos ser: el que sigue y aplica las tecnologías creadas por alguien más o el que las crea para el mundo? Creo que podemos ser un país líder, pero también debemos analizar ¿qué debemos hacer para llegar a eso?”
Y es que, dijo, la IA presenta la oportunidad de reducir la pobreza y las desigualdades; elevar la calidad de vida de las personas, producir más alimentos, mejorar el transporte, la atención médica, la seguridad y la educación, pero en manos equivocadas, que concentren más el conocimiento y el desarrollo, puede producir los efectos absolutamente contrarios “y nos puede dejar a muchas personas sin trabajo”.
De ahí la importancia de democratizar el conocimiento y el desarrollo y analizar bien para qué se usa la tecnología, pues no siempre es la respuesta para todo.
Al respecto, Luz Elena González Zepeda, asistente de proyectos y consultora senior de PIT Policy Lab, explicó que esa institución tiene el objetivo de garantizar desarrollos tecnológicos de interés público, para lo cual se tienen en cuenta criterios como que éstos sean justificados (es decir, que efectivamente le sirvan a la población).
Asimismo, que sean equitativos, es decir, que todos los interesados tengan acceso a usarlos; que cuestionen las dinámicas de poder existentes; que tengan estándares técnicos y salvaguardas eficientes y que sean sostenibles, pensadas con una mentalidad de largo plazo “para que lo que estemos diseñando sea para todos y no dejar a nadie atrás”.
Ante el vertiginoso desarrollo de esta tecnología, convocó a no dejarse llevar por el sentido de urgencia, que parece rodear la discusión de la IA: “hay que analizar el Impacto social de IA. Cuando nos dicen que ya está aquí y llegó para quedarse, no hay que tomarlo tan a la ligera; si queremos podemos ponerle un alto y pensar en alternativas”.
Convocó a que cuando se desarrollen sistemas de IA, “dejemos de creer que todo está bien, sino buscar vulnerabilidades y hacer las preguntas incómodas para garantizar que la herramienta será benéfica y no perjudicial”.
A su vez, Erick Barahona líder de ventas para la Unidad de Clientes de América Latina Norte y Caribe de Ericsson, sostuvo que lo importante sobre esta y otras tecnologías, es que desde ahora se reflexione sobre cómo usarlas de forma segura, con ciberseguridad, privacidad de datos personales y un marco jurídico flexible que evite los daños y maximice los beneficios.
Recordó que la IA, con toda su increíble potencia y sus capacidades futuras insospechadas, no es sino una tecnología más en el concierto de un ecosistema donde también destacan los Centros de Datos, las redes de 5G y otros avances, sin perder de vista que se debe tener en mente una “intención” al usar y programar las redes, pues estás están combinando muchas posibilidades.
“La discusión ya no se centra en adoptar o no las tecnologías: esta ya no es la alternativa. Ahora el tema es: cómo lo hacemos bien, para evitar los aspectos negativos que se pueden presentar con la aplicación de la tecnología, si no se basa en criterios éticos”.
C$T-GM