Si a una persona le piden matar a una mosca y para eso le entregan una metralleta, lo más probable es que dude de la cordura de quien se lo pidió. Es evidente que una metralleta es un arma excesiva y desproporcionada para la tarea; tanto, que no se puede sino pensar que quien lo propone está fuera de la realidad o no sabe de qué está hablando. Y sin embargo, parece que hoy el sector de las telecomunicaciones se enfrenta a una realidad equiparable a esta absurda propuesta.
Por un lado, son obvios los peligros que significa el avance exponencial que registra la tecnología de moda (la inteligencia artificial), pero también otras tecnologías que más tarde o más temprano, merecerán que las volteemos a ver, porque pueden implicar riesgos legales para la ciudadanía, las empresas, los gobiernos y, en general, toda la sociedad.
En cada caso hay muchos puntos de vista y una nutrida discusión, pero para efectos prácticos, veamos por qué, en el caso de la IA, se busca “matar a la mosca con metralleta”.
Por un lado, los expertos calculan que entre 2020 y 2030, la IA será la principal tecnología que contribuya al crecimiento del 17 por ciento del PIB global que se estima se generará por el avance tecnológico en conjunto.
Los cálculos son muy disímbolos, pero hay quien piensa que en esa sola década, la Inteligencia Artificial habrá generado 360 trillones de dólares. Y mientras hace todavía poco tiempo se estimaba que la capacidad de cómputo de la humanidad se duplicaba cada dos años, la de la IA se multiplicó 300 mil veces en los últimos seis años y seguramente el ritmo crecerá de manera exponencial.
Viendo esto y la capacidad que esta tecnología tiene para inventar cualquier cosa, por ejemplo imágenes y texto de personas haciendo cosas inmorales o incluso ilegales, o bien para generar acciones que impliquen robos de propiedad intelectual y la preocupación de que esta tecnología llegue a controlar a los seres humanos, existe el consenso de que la tecnología se debe de controlar.
En ese momento es cuando los amantes de las armas automáticas desenfundan la Uzi, la FN P90 o hasta el “cuerno de chivo” para matar a una mosca.
Es decir, sin entender del todo con qué se están enfrentando, piensan que regular la tecnología es, en principio posible (nada más lejos de la realidad) y, en seguida viable con las herramientas que se tienen a la mano.
Desde el Congreso de la Unión, diputados y senadores adictos a crear leyes barrocas y grandilocuentes (cuando no contradictorias), de inmediato se subieron a la ola de la moda y sin siquiera saber de qué se trata, cómo funciona y para que es buena o mala la IA, emprendieron el engorroso y pesado camino de crear legislación desde cero, para “controlar” lo que va a pasar con el desarrollo de esta tecnología que ya está entre nosotros y que no fue creada en el país.
Los legisladores echaron a andar la maquinaria con el pomposo mecanismo del Parlamento Abierto (que de funcionar correctamente sería maravilloso), las interminables (y en general inútiles) mesas de trabajo con todos los sectores que a veces ni siquiera incluyen a quienes de verdad saben del tema y el trabajo de Comisiones Unidas, donde diputados y senadores se reúnen para ver cómo echar a andar el trabajo legislativo, con el supuesto fin de evitar retrasos a la hora de que la Cámara Revisora supervise lo que hizo la de Origen.
Todo eso significa tiempo, mucho tiempo y es un aparato enorme, con participación de decenas o, a veces, hasta cientos de personas, en eternas reuniones que no llevan a nada concreto, en tanto crecen los riesgos del uso no ético de esta tecnología, que se desarrolla a una velocidad nunca antes vista en ningún adelanto de la humanidad.
El aparato legislativo y la forma de abordar el tema, resultan enormes y desproporcionados. Mientras la inteligencia artificial se desarrolla a velocidad exponencial con numerosos riesgos sobre todo desde el punto de vista ético, los legisladores siguen tratando de abordar el asunto con iniciativas de ley que, de prosperar en su tortuoso camino legislativo, les llevarían dos o tres años para ser aprobadas.
En el mejor de los casos, si alguna de esas iniciativas terminara viendo la luz y siendo promulgada, para cuando esté en plena operación, tendrá un retraso relativo que podría cuantificarse en años, respecto al estado del arte del momento, porque se usó precisamente una herramienta incorrecta para atender el problema.
El sólo hecho de pensar en una ley para regular una tecnología parece de suyo el abordaje inadecuado. Los expertos señalan que, en todo caso, lo que se debe regular es el uso de esa tecnología. Por ejemplo, la prohibición expresa de que la IA se use para fines bélicos.
Porque seguro que el mero concepto de inteligencia artificial de hoy, será muy distinto al que se entienda por consenso no ya en próximos años, sino en cuestión de semanas y entonces, la ley habrá quedado automáticamente rebasada. Y eso por no hablar de sus posibilidades de uso, tanto positivo como negativo.
De tal suerte que seguramente una ley creada de esta forma, no resolverá los problemas que busca resolver. Lo que es más, probablemente el problema para el que fue diseñada, incluso ya no exista cuando entre en vigor y ahora existan otros nuevos mucho más complejos.
Como solución alterna, hay que trabajar actualmente en realizar “Sandbox regulatorios”, es decir, proponer regulaciones ante casos específicos, en ambientes controlados, para ver cómo funcionan, cómo abordarlas y ajustarse en lo necesario. Parece un abordaje más sensato.
C$T-GM