Necesario establecer gobernanza ética.
La mejora y adopción a gran escala, de manera ética y transparente de la Inteligencia Artificial (IA) está en manos de organizaciones y gobiernos que deben trabajar juntos para encontrar el equilibrio entre la autorregulación y la regulación precisa que contribuya a disminuir los impactos negativos de esta tecnología, sin eclipsar su potencial transformador y positivo.
“La confianza es el vínculo principal que une a las empresas que desarrollan e implementan la IA con sus consumidores. Mientras que los primeros deben asegurarse de que sus sistemas lleguen a ciertas conclusiones de manera ética, transparente y cumplan con las regulaciones relevantes, los consumidores son cada vez más conscientes de cómo se utiliza esta tecnología y quieren saber cuándo se usa y cómo impacta sus vidas”, señala IBM.
En grandes espacios de discusión como el G-20, el Foro Económico Mundial y ante organizaciones internacionales como la Organización para la Cooperación y el Desarrollo Económicos (OCDE), la firma tecnológica ha respaldado que la existencia de principios es esencial y ayuda a delinear los compromisos que los desarrolladores de IA deben tener con los ciudadanos, los consumidores y los gobiernos.
Sin embargo, sostiene que ha llegado el momento de pasar de los principios a las políticas. La transparencia algorítmica y la capacidad de los sistemas para explicar la lógica detrás de sus recomendaciones, debería ser la base para construir cualquier sistema de IA confiable, y por lo tanto, es lo que esperamos de cualquier compañía que desarrolle, distribuya o comercialice sistemas de este tipo.
“En un ensayo reciente, tomamos una posición sobre las tecnologías de reconocimiento facial y reforzamos nuestro compromiso con algoritmos transparentes y explicables. Algo similar debe ser requerido para la IA en general: los resultados de búsqueda, ya sean deterministas o probabilísticos, deben ir acompañados de la posibilidad de que el usuario verifique el origen y las fuentes de información presentadas”.
Al tratarse de tecnologías cada vez más extendidas y determinantes de comportamientos y decisiones que pueden afectar la vida en la sociedad, es esencial que los gobiernos prioricen el debate de manera técnica y oportuna.
En este sentido, IBM recomienda que los debates públicos y legislativos para la definición de las mejores políticas y estructuras de gobernanza de la IA se guíen por tres pilares:
– Imparcialidad y seguridad validadas por pruebas de sesgos y de uso. Esto debe ser realizado antes de que la IA sea implementada, y con especial foco en sistemas que entregan determinaciones automatizadas y aplicaciones de alto riesgo;
– Responsabilidad proporcional al perfil de riesgo de la aplicación y a la capacidad de la organización para proporcionar, desarrollar u operar un sistema de IA, así como para controlar y mitigar resultados no deseados o perjudiciales para los consumidores; y
– Transparencia al señalar en dónde se utilizará la tecnología, cómo ha sido entrenado el sistema, cómo se usa, y por qué entrega ciertos resultados o sugerencias de acción.
Con esto, será posible identificar y frenar las prácticas eventuales de organizaciones que no están comprometidas a proteger los derechos y la privacidad de sus usuarios, sean individuos, empresas o gobiernos.
«Creemos que los enfoques regulatorios basados en riesgo son los medios ideales para proteger a los consumidores, crear confianza pública en la Inteligencia Artificial y, sobre todo, proporcionar a los innovadores la flexibilidad necesaria para la creación de sistemas cada vez más precisos e impulsores del desarrollo social y económico».
Además, es importante que las empresas se unan para la construcción de buenas prácticas en el desarrollo y la gobernanza de estos sistemas, y que estas prácticas puedan variar de acuerdo con el daño potencial que una solución pueda presentar.
Con base a este ejercicio de armonización, IBM recomienda algunas prácticas que, al incorporadas y ser aceptadas por el mercado, diferenciarán a las compañías que realmente están comprometidas con la generar una práctica de Inteligencia Artificial confiable.
Designar un líder responsable de ética en la IA, definir reglas para diferentes riesgos, establecer sistemas explicables; es decir, capaces de contextualizar cómo y por qué llegó la IA a una conclusión, y realizar pruebas de sesgos, son algunas de las prácticas que diferenciarán a las compañías que realmente están comprometidas con una Inteligencia Artificial segura y confiable.
C$T-GM