La denominada Inteligencia Artificial (IA) ética, que conjunta robustez, explicabilidad, transparencia, equidad y privacidad, todavía enfrenta barreras de adopción como el talento (64 por ciento); capacitación (53 por ciento) y financiamiento (60 por ciento) y el hecho de que seis de cada 10 empresas reportan “tensión” entre los objetivos de negocio y los valores éticos.
Sin embargo, las empresas previeron destinar hasta el 8.8 por ciento de su gasto en la IA ética durante este año y para el próximo, la cifra se elevaría a 10.7 por ciento, con el 30 por ciento de las empresas reportando beneficios operativos obtenidos al invertir en este tipo de tecnología, reveló el estudio “Retorno de inversión de la IA ética”, de IBM.
Jorge Paz, experto en Ciencia de Datos e IA en IBM México, detalló que de acuerdo con este estudio, mientras en 2023, el retorno de inversión que obtendrían las empresas por utilizar esta tecnología llegaba al 7.0 por ciento, para 2026 se espera que alcance el 14 por ciento, lo que significa que este indicador se habrá duplicado en menos de diez años.
Respecto a los beneficios que reportan las empresas por utilizar la IA ética, se destaca el lograr mayor confianza (67 por ciento); obtener un mejor posicionamiento (58 por ciento); mejor soporte para el crecimiento a largo plazo (51 por ciento) y mejores relaciones con grupos de interés (36 por ciento).
De hecho, en el último año, las empresas que utilizan esta tecnología lograron mejorar 25 por ciento, la retención de clientes; 23 por ciento en prevención de incidentes; mejoras operativas, eficiencia y efectividad en un 15 por ciento y mejoras en multas regulatorias en un 11 por ciento.
Pese a las cifras positivas, todavía hay “frenos” para la adopción de la IA ética, pues el 49 por ciento de las organizaciones mexicanas citó la explicabilidad, la ética, los riesgos de sesgos y la confianza en los modelos, como barreras clave para la adopción de la IA.
Más aún, el 64 por ciento de las empresas advirtieron que deberán repensar significativamente sus marcos de IA ética, a medida que este tipo de sistemas ganen más autonomía y hasta el 71 por ciento de los ejecutivos mexicanos creen que la IA agética, actualmente tan en boga, “va a requerir directrices éticas más estrictas”.
Estas cifras se cruzan con otro indicador importante, reveló Jorge Paz, pues se calcula que casi tres cuartas partes de los trabajadores ya están usando herramientas de IA sin el conocimiento de sus empresas, entre otras cosas, porque no desean que se descubra su “secreto” de una creciente productividad, eficiencia y rapidez en el trabajo.
La denominada “IA en las sombras”, sigue siendo un problema para las empresas, incluyendo el uso de herramientas que no cumplen con los estándares de ética más deseables.
Durante la misma presentación, efectuada en las instalaciones de IBM, México, Manuel O´brien, líder de Asuntos Gubernamentales y Regulatorios de la compañía en nuestro país, señaló que los esfuerzos por establecer una regulación sobre la Inteligencia Artificial se remontan al año 2016, con los primeros planos y estratégicas establecidas por Corea, China y Estados Unidos, a los que han seguido muchos otros.
De hecho, la Unión Europea elaboró el primer plan de regulación a nivel mundial, pero ante el rápido avance de la tecnología, ya lo ha tenido que ajustar, lo que demuestra que será mejor pensar en marcos más flexibles, que incluyan directrices y sandboxes regulatorios, en lugar de optar por una regulación formal.
Explicó que IBM a nivel mundial, promueve tres principios centrales en materia de regulación: regular el riesgo, no la tecnología; que los creadores e implementadores de la IA asuman responsabilidades; y propiciar los códigos abiertos, en lugar de regímenes de licencias.
En ese sentido, digo que es importante regular los usos de alto riesgo de la IA, porque no todos sus usos son iguales; cada aplicación es única y “creemos que la regulación debe tener en cuenta el contexto en el que se despliega y los usos de alto riesgo se deben regular con mayor rigor”.
Sobre la responsabilidad de los creadores, pareció que la legislación debe tener en cuenta los roles de los desarrolladores e implementadores de la IA y hacer que respondan en el contexto en que desarrollan e implementan la tecnología, con equilibrio entre responsabilidad e innovación.
Señaló que desde el punto de vista de IBM, un régimen de licencias sería un golpe serio a la innovación abierta y “correría el riesgo de fomentar la captura regulatoria”, con aumento de costos y obstáculos a la innovación, en perjuicio de actores más pequeños y desarrolladores de Código Abierto, consolidando “el poder de unos cuantos”.
C$T-EVP





































