Genera confianza y lealtad hacia las marcas, su aplicación.
En el actual entorno de los negocios, no son pocas las organizaciones que consideren la ética como un elemento indispensable al ejercer soluciones de Inteligencia Artificial (IA), conocedores que su integración impulsa confianza y satisfacción entre los consumidores, quienes hoy están dispuestos a brindar lealtad y preferencia a una marca o castigar comportamientos negativos.
«Un método clásico para obtener confianza con interacciones de Inteligencia Artificial en particular, puede resumirse en tres ideas: transparencia, rendición de cuentas y empoderamiento. Esto significa transparencia para que las personas puedan ver lo que estás haciendo; rendición de cuentas porque asumes la responsabilidad por lo que estás haciendo; y empoderamiento porque pones a las personas a cargo para decirte si algo que hiciste no estuvo bien o no fue bueno», precisó Luciano Floridi, director de Laboratorios de ética digital, en el Instituto de internet de Oxford.
Un reciente estudio mostró que 62 por ciento de empresarios de grandes firmas admitieron que confiarían más en compañías que instrumenten IA y se perciba como ética; 61 por ciento compartiría su experiencia con familiares y amigos; 59 por ciento tendría mayor lealtad a la compañía, y 55 por ciento compraría más productos y otorgaría mayor calificación y retroalimentación en redes sociales.
Sin embargo, cuando la interacción de los consumidores con las soluciones de IA generen problemas éticos, la reputación de una empresa resulta amenazada y afecta el resultado final: 41 por ciento de los encuestados dijeron que se quejaría cuando una interacción con IA resultará en problemas éticos, 36 por ciento demandaría una explicación y 34 por ciento dejaría de interactuar con la compañía.
El estudio “Por qué enfocarse en cuestiones éticas en IA beneficiará a las organizaciones” fue realizado por Capgemini Research Institute, incluyó una encuesta a mil 580 ejecutivos de grandes empresas a través de 10 países, y a más de 4 mil 400 consumidores a través de seis países.
Entre otros resultados detectó que nueve de cada 10 organizaciones creen haber conocido problemas éticos por uso de sistemas de IA en los últimos dos o tres años; como ejemplo citaron casos de atención médica con recopilación de datos personales de pacientes sin consentimiento, así como dependencia excesiva en decisiones dirigidas por máquinas sin difusión en banca y seguros, ello resultado de presiones al implementar con urgencia IA; falta de consideración de la ética al construir sistemas de IA y carencia de recursos para instrumentar sistemas éticos de IA.
Por el lado de los consumidores, 47 por ciento experimentó al menos dos tipos de usos de IA que resultaron en problemas éticos en los últimos dos o tres años; 74 por ciento pidió mayor transparencia cuando un servicio es impulsado por IA, y 72 por ciento saber si la IA se maneja de manera justa; hasta 76 por ciento cree que debería haber más regulación en torno a la forma en que las empresas usan la IA.
El estudio permitió detectar que 53 por ciento de los ejecutivos consideró importante asegurar que los sistemas de IA sean éticos y transparentes y cómo las organizaciones están tomando acciones concretas en los casos donde se denuncian controversias éticas; y 41 por ciento dijo haber abandonado un sistema de IA por completo una vez que surgió un problema ético.
«Esto no es solo un problema de cumplimiento interno, sino un problema que puede generar un beneficio significativo en términos de lealtad, respaldo y compromiso… las organizaciones deben centrarse en establecer las estructuras de gobierno adecuadas, no solo deben definir un código de conducta basado en sus propios valores, sino también implementarlo de manera concreta como una aproximación de ética por diseño, y sobre todo, enfocarse en informar y empoderar a las personas sobre cómo interactúan con las soluciones de IA», recomendó Anne-Laure Thieullent, líder de IA y de ofertas del Grupo de analítica en Capgemini.
C$T-EVP