Si bien son innumerables las aportaciones de la Inteligencia Artificial (IA) en el desempeño del sector productivo y en general en el desarrollo de la humanidad, existen algunos usos de esta tecnología que carecen de regulación, y que no se circunscriben al bien común, tal es el caso de su aplicación bélica en los sistemas de armas autónomas.
“Todo tipo de tecnologías pueden tener un doble uso. Hay bastantes bondades de la inteligencia artificial: tenemos Siri, Alexa, pero cuando se aterriza en armas, siempre hay eventos desafortunados”, alertó Ximena Viveros, especialista en Derecho Internacional, así como en implicaciones de la IA y sistemas de armas autónomos.
Durante la presentación de su libro Sistemas de armas autónomas. El dilema de la rendición de cuentas, la abogada mexicana se pronunció por regular la producción de tecnologías aplicadas al armamento en tanto no se pueda garantizar el control humano determinante, ya que con el mal uso de la IA puede atacar a la sociedad civil y a cualquier persona, ya sea líder político o militar.
Muestra de ello es que el pasado 7 de noviembre se dio a conocer que el primer ministro iraquí, Mustafa al Kadhimi, escapó ileso del ataque con un dron cargado de explosivos contra su residencia, en Bagdad, en el que resultaron heridos seis de sus guardaespaldas en un aparente intento de asesinato, según las autoridades.
En el marco del Seminario Permanente de Inteligencia Artificial y Derecho, la autora expuso que el Derecho Internacional Humanitario (DIH) acepta que durante los tiempos de guerra habrá muertes legítimas, destrucción y despliegue de armas a gran escala.
La publicación plantea que actualmente el mundo se enfrenta a la más significativa y quizás, la última invención de la humanidad: la Inteligencia Artificial (AI), que puede dotar de autonomía a las máquinas reemplazando el criterio humano por el de una máquina.
“Lo anterior es sumamente peligroso porque se está delegando facultades que sólo conocíamos los humanos. Ahora las tecnologías, un software, una máquina y un arma la puede tomar antes que nosotros”, abunda.
Viveros define los Sistemas de Armas Autónomas como entidades altamente sofisticadas, capaces de tomar decisiones de vida o muerte, actuar e iniciar combate sin intervención humana y como ejemplo están el Dron Francotirador Tikad, Robot Maars Armado y el Súper aEgis II.
En su ponencia virtual, la especialista indicó una circunstancia a considerar, denominada Incógnita Conocida o la “caja negra” de la IA, que consiste en que a diferencia del proceso de toma de decisión humana, que es lineal, este proceso en una IA es demasiado complejo, pues la máquina crea sus propios algoritmos porque en el momento que se les da la información al sistema, conforme al machine learning y al deep learning, la máquina hace sus propias asociaciones.
“Independientemente de su “configuración” original, es el mismo programa el que decide el valor adecuado que se le asigna a cada elemento que percibe, sin que el programador sepa qué reglas usó”.
Este problema, subrayó, hace que las tecnologías dotadas de IA puedan actuar de manera errática o impredecible.
A nivel global, refirió que el Comité Internacional de la Cruz Roja (CICR) ha señalado que los algoritmos facilitarían peores decisiones, violaciones a los Derechos Humanos y exacerbarían los riesgos para los civiles.
Además, el CICR prevé que, como requisito mínimo, toda tecnología nueva debe poder usarse de conformidad con el Derecho Internacional Humanitario (DIH), por lo que se preguntó ¿podemos permitir que las decisiones de vida o muerte se deleguen de manera legal y ética a las máquinas?
La naturaleza jurídica de los Sistemas de Armas Autónomos cobra relevancia porque no es clara, al tiempo de puntualizar que debido a su propósito de atacar, pueden considerarse como armas, y por el otro lado, hay quienes las consideran un combatiente por ser un tomador de decisiones artificial.
En opinión de la autora, la aproximación más precisa de su naturaleza sui géneris es que deben seguir considerándose como un arma en el plano teórico, pero una especie de “humanoide” en la práctica.
En este marco, insistió en que se debe hablar del tema y colocarlo en la agenda pública porque si bien México no es un país del que se esperaría una producción masiva de este tipo de armas o igual consumo, podrían ser usadas por el crimen organizado; se sabe que los cárteles utilizan armas de uso exclusivo del Ejército.
Cuestionada sobre armas nucleares, sostuvo que el nivel de preocupación es grande o similar; “imagínense que un arma nuclear que se pueda detonar mediante Inteligencia Artificial, que esté programada para detonar en caso de X o Y. Entonces la máquina solita ya tiene la instrucción de que cuando interprete ese supuesto, se active”.
C$T-GM






































