La integración ética de la Inteligencia Artificial (IA) en el mundo de las finanzas es un gran desafío para la industria, tanto desde el punto de vista técnico como desde la perspectiva de las inversiones, por lo que debe convertirse en un asunto prioritario en las organizaciones que han incluido soluciones de ese tipo.
Para Marc Garay, Global Head of Treasury & Capital Markets de la consultora everis, es importante considerar factores como el sesgo, la fiabilidad de los algoritmos, la preocupación por la equidad de los resultados y la falta de transparencia al diseñar e implementar una estrategia utilizando el análisis de datos y la IA.
“En este sentido, la estrategia debe crearse dentro un marco que incorpore acciones tácticas, relacionadas con los sistemas y algoritmos de la IA, la administración, la sociedad y organización”, expuso en su artículo La importancia de una implementación ética de la IA en el sector financiero.
Consideró que las instituciones financieras que quieren mantenerse al día con respecto a las necesidades del mercado llevan años incorporando nuevas tecnologías como el aprendizaje automático, el cual les ayuda a mejorar su proceso de toma de decisiones debido a su capacidad para procesar grandes cantidades de datos.
Para ello identificó algunos factores clave que ayudan a las empresas en el desafío de la implementación ética de la IA, tales como transparencia, equidad, seguridad, privacidad, gobierno de la IA, la organización y la sociedad.
Respecto al primer punto, mencionó que la explicabilidad y la trazabilidad son factores clave para desarrollar e implementar modelos éticos porque permiten entender cómo los algoritmos han alcanzado determinado resultado; cómo se recogen, procesan y documentan todos esos datos que pueden tener impacto en la exclusión financiera de grupos específicos.
Al referirse a la equidad, Garay subrayó que la lA debe garantizar que en la toma de decisiones no debe supeditarse a ningún sesgo; “por lo que esta tecnología debe considerar el hecho de que los datos son representativos y se pueden generalizar, o que el diseño no incluirá variables, rasgos o estructuras que no posean la justificación adecuada”.
En materia de seguridad, recomendó establecer protocolos de seguridad adecuados, lo cual es de suma importancia para mantener la integridad del sistema en circunstancias desfavorables, para que cuando se implementen tecnologías de inteligencia artificial, se cuenten con modelos internos de seguridad que protejan a las entidades de ciberataques.
Sobre este punto abundó que, la protección de datos personales suele ser el núcleo de cualquier problemática de carácter ético relacionada con la IA y se puede abordar desde el punto de vista técnico, regulatorio y de investigación.
La supervisión humana, remarcó al recordar el componente de gobierno, es clave a la hora de aportar valor y confianza en el sistema de IA.
“En un modelo ideal, conocido como Interacción entre el Hombre y la Máquina (Human Machine Interaction) o IA Aumentada, la toma de decisiones se realiza mediante la combinación de la perspectiva humana y recomendaciones automatizadas. En este sentido, es posible establecer una clasificación acorde al grado de intervención humana”, sostuvo.
En opinión del especialista, es necesario crear una estructura que apoye estos valores y los integre dentro de la cultura de la empresa, por lo que la dirección está obligada a realizar una labor de concienciación dentro de la organización sobre la importancia de la integración ética de la IA.
Al concluir el artículo, Marc Garay afirmó que las organizaciones tienen la responsabilidad de llevar a cabo los principios éticos de la IA, utilizando esta tecnología en beneficio de la sociedad, por lo que las instituciones financieras deben adaptarse a nuevas formas de evaluar riesgos.
C$T-GM