Necesario evitar inercia y asumir cierto grado de riesgo.
La Inteligencia Artificial (IA), que ya está presente en actividades cotidianas como realizar compras por internet, recibir recomendaciones para planear unas vacaciones o en el caso de las empresas recopilar y procesar información para mejorar sus servicios, evolucionará cada vez más y por ello es fundamental hablar del uso responsable y ético de esta tecnología.
Al respecto, Göran Karlsson, futurista, socio ejecutivo y desarrollador de negocios en TCS, señala que la razón por la que la IA está tan involucrada en todas estas experiencias es porque esencialmente es un optimizador que puede aprovecharse para mejorar cualquier proceso, en cualquier lugar; sin embargo, su forma de operar todavía no es totalmente transparente para los consumidores.
«Eso ha llevado a llamadas para asegurarnos de que el uso de IA sea ético y responsable. La Unión Europea (UE) está estableciendo un marco regulatorio como parte de ese impulso. En TCS, también hemos comenzado a trabajar en un marco para la IA ética».
Karlsson refiere que las directrices de la UE hablan sobre el futuro del trabajo, la equidad, la seguridad,inclusión social y lo que se denomina «transparencia algorítmica»; sin embargo, aunque la regulación es sin duda importante, debemos asegurarnos de que la inercia no se establezca.
«La gente tiende a pensar que la IA es peligrosa, simplemente porque es nueva. Las empresas también pueden ser bastante conservadoras, especialmente cuando escuchan las discusiones entre la industria y los políticos sobre el gobierno de IA».
Todo ello significa que podríamos estar en peligro de ser demasiado cautelosos y podríamos terminar obstaculizando su potencial. En Europa, ya existe algo para ponerse al día: de las 50 principales compañías de tecnología global, ninguna de ellas es de la UE.
El especialista refiere que la evidencia de una encuesta que Tata Consultancy Services (TCS) realizó sobre IA hace unos años sugiere que la UE no se está quedando atrás cuando se trata de innovación en esta área pero es necesario ponerse al día para garantizar que el panorama político acelere activamente el avance de la IA.
«Los datos son un área donde ya se ha hecho evidente que se necesitan pautas claras para garantizar que se adopte un enfoque ético. Y las reglas del Reglamento General de Protección de Datos (GDPR) han tenido un buen comienzo a este respecto. Pero, por supuesto, la inteligencia artificial es tan buena como la calidad de los datos disponibles».
En pocas palabras, añade el Karlsson, la IA trabaja en tres etapas: recopila datos, optimiza y aprende, y en última instancia realiza acciones comerciales. Analiza y comprende grandes conjuntos de datos para encontrar los patrones que llevarán a la optimización.
Diversas empresas tienen datos más que suficientes, pero están ocultos en silos. Cuando estos silos se abran a la Inteligencia Artificial, las empresas serán mucho más efectivas que cuando basan sus procesos de toma de decisiones en suposiciones.
«En todos y cada uno de los proyectos de IA, los datos deben recopilarse como combustible para la fase de optimización y aprendizaje. Aquí es donde las cuestiones éticas y las implicaciones legales entran en juego. La recopilación de datos, su clasificación y verificación deben ser seguras y confiables. Y las políticas para garantizar la calidad, la seguridad y los datos imparciales son, por lo tanto, de importancia crítica».
Dentro de este ciclo de optimización, aprendizaje y re-optimización, debe haber un conjunto de parámetros o reglas para definir cuáles son los resultados deseados. Al mismo tiempo, la IA debe poder proceder con un grado aceptable de precisión para que sea efectiva.
En opinión del especialista, también hay una dimensión ética cuando se trata de preparar a la fuerza laboral para hacer frente a la próxima ola de cambio. La industria de servicios financieros es una de las áreas donde estamos viendo la aceptación más significativa de IA. En Londres, las máquinas han reemplazado a los humanos cuando se trata de negociar acuerdos y operaciones especulativas.
El cerebro humano solo tiene una capacidad limitada, pero la IA puede detectar un posible fraude, por ejemplo, al examinar muchas diferencias en múltiples dimensiones.
Estos cambios conducen a temores justificables sobre mayores pérdidas de empleos y despidos pero de la misma manera que otras tecnologías en el pasado han permitido el crecimiento, la introducción de la IA representa un cambio hacia trabajos más significativos, y creará nuevas ocupaciones que no existían en el pasado.
La IA carece de inteligencia emocional y empatía, ambas entre las habilidades únicamente humanas que son insustituibles. Pero con el fin de optimizar el potencial de la inteligencia artificial para mejorar la rentabilidad, tenemos el deber de capacitar y volver a capacitar a nuestra fuerza laboral.
«En TCS, estamos invirtiendo masivamente en capacitar a nuestros 420 mil asociados, utilizando las instalaciones más modernas. El Informe Villani 2018 del gobierno francés se centra en cuatro categorías clave de habilidades que necesitamos mejorar: habilidades cognitivas transversales, que incluyen resolución de problemas y comprensión del lenguaje y los números; habilidades creativas; habilidades sociales y situacionales, como el trabajo en equipo y la independencia; y habilidades de precisión, como la destreza manual, que no deben pasarse por alto».
Un enfoque ético significa garantizar que las personas reciban una nueva capacitación y en ello, la Unión Europea tiene un papel importante que desempeñar para incentivar a más trabajadores a obtener el nivel adecuado de experiencia en temas de Ciencia, Tecnología, Ingeniería y Matemáticas (STEM).
«En resumen, necesitamos regulación, pero también necesitamos más incentivos y educación. Y, si queremos evitar la inercia, también debemos asumir cierto grado de riesgo».
C$T-GM