La vertiginosa velocidad con la que avanza el desarrollo y uso de la Inteligencia Artificial (IA) ha hecho imposible que la población en general comprenda en toda su magnitud cuáles son los alcances y peligros relacionados con su aplicación, por ello es imprescindible no sólo conocer hacia dónde va, sino establecer claramente sus límites y una adecuada regulación.
“El desarrollo de la IA va mucho más rápido que nuestra comprensión, por ello es importante que la población en general entienda más a fondo sus alcances y peligros. Como siempre que surge una nueva tecnología hay muchas posibilidades, pero también muchos peligros y uno de ellos es que la sociedad en su conjunto no entienda exactamente hacia dónde va”, sostuvo Alejandro Frank Hoeflich, Investigador del Centro de Ciencias de la Complejidad, UNAM.
Al participar en el conversatorio “La inteligencia artificial, ¿cuáles son sus riesgos y peligros para las ciudades del futuro?, aseveró que el más grande peligro presente que corre la sociedad radica en el hecho de que la IA mediante el aprendizaje de máquinas, ha logrado copiar la realidad, hacer una realidad virtual casi indistinguible de la que vivimos.
Destacó la coincidencia que hay con tres grandes expertos mexicanos en IA, Raúl Rojas; Luis Pineda y Carlos Coello, sobre la importancia de que la sociedad comprenda en su justa magnitud, lo que significa en todas las áreas el uso de la IA, hacia dónde “nos puede llevar” y la pertinencia de poner límites al uso de esta tecnología.
Comentó cómo en su interacción con uno de los algoritmos de IA más recientes, el denominado ChapGPT, se destacó cómo el futuro de trabajos relacionados con tareas predecibles y repetitivas y concretamente los relacionados con la logística, servicios al cliente, trabajo administrativo, transporte de carga y público, serán susceptibles de desplazamiento laboral.
Sin embargo, al consultar a su amiga “Chati” (ChapGPT) también le aportó grandes contribuciones de la IA, como cruzar grandes volúmenes de datos, identificar patrones, y riesgos asociados con el uso de tecnologías y la genética, crear simulaciones y entornos de prueba, predicciones, y modelos, lo cual en su conjunto ayuda a la toma de decisiones mejor informadas para la generación de regulaciones más eficientes.
Para el investigador, el uso de tecnologías como la IA, traerá grandes oportunidades pero también grandes riesgos. La educación está muy por detrás de estas tecnologías, por lo que es muy importante crear conciencia y educación para prevenir impactos negativos.
En el foro organizado por Centro-i y el Instituto de Investigaciones Jurídicas de la UNAM, Dinorah Cantú-Pedraza, Senior Fellow de THE GOVLAB, aseveró que las herramientas tecnológicas como la IA, no son buenas, ni malas, el uso y la forma en que se utilicen, es lo que puede desembocar en buenos o malos resultados, porque “toda tecnología tiene el potencial de construir o destruir”.
Consideró imprescindible que antes de hablar del potencial que tiene esta tecnología, se debería abordar cómo obtener su materia prima, como es el uso, recolección y almacenamiento adecuado de datos, lo que es la “talacha, lo que no es políticamente sexy”, pero que resulta clave para el éxito de alimentar una herramienta como la IA.
«Si hay buenos datos, hay buena IA. sin ello la herramienta no podrá generar buenos aprendizajes y ahí están la mayor parte de los riesgos, pues la tecnología replica los sesgos que nosotros tenemos mal, pues el ciclo de los datos, estamos recolectando información ya con sesgos, que luego terminan en malas predicciones… por la creencia de que la IA es objetiva y el humano es subjetivo y porque lo hizo una computadora, pensamos que los resultados son objetivos”.
Asimismo es importante establecer objetivos comunes y unificar criterios de cómo se llevará a cabo la recolección de datos y su almacenamiento, pues hacerlo a partir de formatos distintos, además de recabar distinta información, su visualización y compartición será complicado, lo que puede comprometer los resultados esperados.
Precisó que entre mayor cantidad de bases de datos se logre recolectar, más efectivos resultará los modelos y sugerencias que establezca la IA; con datos revisados a detalle y confiables, con ello se evitarán sesgos.
No obstante en opinión de Paola Cicero, directora de la Oficina del Comisionado Presidente del IFT, Javier Juárez, alimentar adecuadamente la información de la IA, inicia desde conocer el origen de los datos, la forma en que se recabó y saber quién autoriza compartirla, con lo que se garantice transparencia, respeto a la privacidad y la protección de datos personales.
Recolectar bien la información es crucial, pero hay un paso previo imprescindible como establecer un ecosistema propicio para ello. Conocer de dónde salen los datos, los sensores involucrados, que tiene que ver con el Internet de las Cosas (IoT), las redes por las que circularon, los centros de datos donde se almacenan, cómputo en la Nube, todo un conjunto de tecnologías digitales.
Ignorar todo este andamiaje, puede generar un costo sobre la privacidad de una persona o una institución, por lo que es indispensable cuidar este aspecto, transparentar el uso, objetivos y cómo se protege esta información, para no ser usada en forma distinta al objetivo inicial.
Los beneficios del uso de la IA, señaló, no son cuestionables pero también implica superar distintos retos sobre Transparencia, Privacidad y Protección de Datos, temas energéticos sin resolver, así como el eventual desplazamiento laboral que podría afectar a 13 millones de conductores y conductoras en el mundo, así como evitar que su uso profundice desigualdades.
C$T-EVP