La Inteligencia Artificial (IA) no debe abordarse como una “cacería de brujas”, pero tampoco como “la panacea que hará nuestra vida perfecta”, sino entenderse como una nueva tecnología que, con sus riesgos como cualquier otra, puede ayudar en varios aspectos y debe incorporarse al conjunto de la vida humana como una herramienta más, afirmó Héctor Acevedo Juárez, subdirector de UnivérScitum.
En entrevista con Consumo TIC, señaló que es interesante la postura que planteó recientemente Sam Altman, CEO de Open AI, empresa creadora de ChatGPT, ante el Subcomité Judicial del Senado de Estados Unidos sobre la Privacidad, Tecnología y Derecho, en el sentido de establecer normas de seguridad para sistemas avanzados de Inteligencia Artificial (IA), debido a que si esta tecnología llega a fallar, “puede ser bastante problemático”.
De hecho, esta petición se alinea con los esfuerzos que se están realizando en Europa para controlar la Inteligencia Artificial, que pueden derivar en una serie de limitaciones y parámetros que se usarían en el ámbito de la Unión Europea.
Sin embargo, consideró que estos esfuerzos, por loables que sean, no serán suficientes, porque lamentablemente mucha gente que no vive dentro de los países donde tengan aplicación esas normas, seguirán desarrollando los sistemas, especialmente por intereses económicos, incluyendo los hackers o por razones políticas.
Acevedo Juárez ejemplificó el caso de las instituciones castrenses del mundo, que sin duda están desarrollando sistemas de IA para usos estrictamente militares y que evidentemente no se van a detener, aunque eventualmente se generen legislaciones que las limiten.
Sobre la protección de los datos personales en el contexto de la IA, dijo que prevalece todavía mucha ingenuidad en general en las personas. Para demostrarlo, sólo hace falta ver los perfiles de Facebook o Instagram prácticamente de cualquier individuo, donde se expone sin reservas mucha información personal, que puede ser fácilmente vulnerada por cualquiera que tenga interés en ello y un mínimo conocimiento.
Pero esta “ingenuidad” o “inocencia”, no se detiene ahí. De hecho, en la interacción con sistemas de inteligencia artificial es muy fácil ver ejemplos de personas que incluso han comprometido seriamente secretos industriales importantes porque olvidan que están “hablando” con una máquina que necesaria y obligadamente ventilará de manera pública la información con que se alimente.
A manera de ejemplo, comentó sobre una persona que le pidió como consejo a un sistema de inteligencia artificial si debía tomar agua de limón o de sandía. Cuando el sistema le pidió a su vez más información para entender mejor la pregunta, la persona le dijo que era diabética y de nuevo el aparato preguntó la raza a la que pertenecía, a lo que esta persona contestó que es caucásica y que se encuentra en X rango de edad.
“Con eso la persona ya expuso datos sensibles, porque ‘olvidó’ que está tratando con un sistema de inteligencia artificial que más temprano que tarde usará esa información para alimentar nuevas búsquedas”.
En ese sentido, es evidente que lo malo no es la IA en sí misma, sino el uso que le demos y la forma en que nos aproximemos a ella. Es importante no olvidar nunca que cualquier información que entreguemos, será usada necesariamente para construir nuevo “conocimiento” y por lo tanto, es evidente que la seguridad de nuestros datos estará en riesgo, siempre que olvidemos con quién estamos tratando.
Con todo, Héctor Acevedo aseguró que no se debe satanizar a la tecnología en sí, pues recordó que es simplemente una herramienta que puede tener diversos usos. “Así como un martillo puede utilizarse para construir un bonito mueble, también puede usarse para romperle el cráneo a alguien, pero eso no depende del martillo, sino de quién lo use”.
C$T-GM