Ante los crecientes riesgos que significa el uso de la Inteligencia Artificial (IA) en todas las industrias, el gigante digital Microsoft se comprometió ante sus usuarios en todo el mundo a desarrollar herramientas para mejorar el manejo del riesgo, ejercer una gobernanza eficaz a lo largo de la cadena de suministro e impulsar un ecosistema con normas compartidas.
En su “Reporte de responsabilidad y transparencia en IA 2025”, recién publicado, la multinacional reconoció que a principios de este año, su Unidad de Delitos Digitales detectó a un grupo internacional de ciberdelincuentes que desarrolló un software para explotar credenciales de clientes extraídas de sitios públicos.
En la denuncia penal correspondiente, presentada en febrero en el Distrito Este de Virginia, Estados Unidos, Microsoft señaló a cuatro desarrolladores de estas herramientas maliciosas, quienes “formaban parte de una red mundial de ciberdelincuentes que accedieron ilegalmente a cuentas con determinados servicios de IA generativa”.
Estos individuos, además, alteraron las capacidades de estos servicios y revendieron el acceso a otros actores maliciosos de amenazas, proporcionando instrucciones detalladas sobre cómo generar contenidos dañinos e ilícitos.
Frente a estos escenarios, Microsoft reiteró el compromiso ante sus millones de usuarios de todo el mundo, de desarrollar herramientas eficaces alineadas al Acta de Inteligencia Artificial de la Unión Europea y el Acta de Inteligencia Artificial de los Estados Unidos, que permitan garantizar la protección en el uso de esta tecnología, sin limitar su capacidad de transformación.
De hecho, el modelo propuesto coloca la gobernanza al centro, con los ejes del mapeo, medición y manejo alrededor, que fomente un uso seguro de la IA, pues en 2024 “se observó un amplio rango de avances de la IA con olas de adopción en organizaciones grandes y pequeñas, que abrieron oportunidades y aprendizajes en múltiples industrias desde ciencia, educación y cuidados médicos, hasta ventas al menudeo, manufactura y agricultura”.
De ahí que Microsoft se enfocará en este año en tres áreas para “impulsar nuestro firme compromiso con la gobernanza de la IA, garantizando al mismo tiempo que nuestros esfuerzos respondan a un panorama en constante evolución”.
El primero es el desarrollo de herramientas y prácticas de manejo de riesgos más ágiles y flexibles, mientras se fomenta el desarrollo de habilidades para anticiparse y adaptarse a los avances de la IA.
Para lograrlo, Microsoft se ofreció mayores inversiones en sus sistemas de manejo de riesgos para crear herramientas y prácticas útiles para enfrentar los riesgos más comunes en los escenarios de desarrollo “y también debemos continuar invirtiendo en nuestros empleados, que son el corazón de nuestros esfuerzos en manejo de riesgos”.
El segundo, consiste en respaldar la gobernanza efectiva de la IA a lo largo de toda la cadena de suministro, en la conciencia de que construir, crecer y mantener la confianza en la IA es un esfuerzo colaborativo que requiere un modelo donde desarrolladores, creadores de aplicaciones y usuarios del sistema, contribuyan a crear una comunidad confiable.
“Las regulaciones de la IA, incluyendo el Acta de Inteligencia Artificial de los Estados Unidos, reflejan esta necesidad de contar con un correcto flujo de información entre todos los actores de la cadena de suministro”.
Finalmente, se busca impulsar “un vibrante ecosistema a través de normas compartidas y herramientas eficaces, particularmente para la medición y evaluación de los riesgos de la IA”.
En ese sentido, el Reporte, cuya intención es responder a la pregunta “cómo construimos el respaldo para el crecimiento de nuestros clientes”, con el uso seguro de la IA, propone un modelo, que, como se señaló anteriormente, coloque a la gobernanza al centro y cuya línea de desarrollo de soluciones específicas comienza como un plan, que pase por su desarrollo, revisión y pre lanzamiento, para ajustar todo lo necesario antes del lanzamiento definitivo.
C$T-GM