El 2023 cierra como el año de la Inteligencia Artificial (IA), tecnología que, sin ser nueva, se popularizó al ponerse al alcance de cualquier persona a través de Chat GPT, una aplicación gratuita de inteligencia artificial generativa que aún está lejos de ser perfecta, pero promete resolver prácticamente todas las dudas y preparar textos de cualquier nivel y temas imaginables sin esfuerzo, con tan sólo formularle una pregunta o petición.
Sin embargo, una mirada más cercana por parte de los especialistas, pone en contexto los riesgos implícitos, sobre todo de cara al 2024, año electoral, donde el uso de estas herramientas generará mentiras potencialmente peligrosas como las llamadas “deep fakes” (mentiras profundas por su traducción directa).
Es decir, se trata de audios o videos manipulados con IA, para hacer pensar que algún personaje público hizo o dijo algo totalmente inapropiado, usando su imagen y voz reales, para producir una pieza falsa.
Lo peligroso es que, mientras el “Reporte de fraudes de identidad 2023” de Sumsub, indica que en México ha habido un crecimiento de 700 por ciento de incidencia de deep fakes en 2023, la encuesta “La infodemia y su impacto en la vida digital” publicada por la empresa Kaspersky, indica que siete de cada 10 mexicanos, no saben lo que es una deep fake y el 62 por ciento es incapaz de reconocerla, sin duda, éstas estarán presentes durante las campañas electorales del próximo año.
Elena Estavillo, directora del Centro-i para la Sociedad del Futuro, señaló en entrevista con ConsumoTIC que ante estos y otros riesgos que puede implicar el mal uso de la IA, es necesario plantear qué camino se tomará para regular esta tecnología (que no prohibirla), porque “no todo tiene que venir del gobierno”.
Si bien es importante que haya un marco jurídico, éste no debe ser demasiado descriptivo o puntual “porque las tecnologías se mueven muy rápidamente y el gran reto es encontrar reglas, procesos y mecanismos flexibles que se puedan actualizar” de manera ágil.
Lo importante, explicó, es crear un sistema de gobernanza con participación de empresas, academia, gobiernos de los tres niveles, organizaciones de todos los sectores, para lograr un esquema eficaz que enfrente con éxito los malos usos de esta tecnología, que lamentablemente podrían lesionar la confianza ciudadana durante los próximos comicios.
Y mientras la Unión Europea parece dar los primeros pasos en la regulación específica, en México aún no es muy claro qué camino se tomará, si bien se han adoptado las recomendaciones de la UNESCO sobre los usos éticos de la IA.
Sin embargo, en el Congreso hay alrededor de 20 iniciativas de ley sobre IA, en su mayoría apresuradas, que no están integradas en una visión general de lo que hace falta y sin un enfoque estratégico, por lo que se requiere un verdadero proceso de parlamento abierto para que los legisladores escuchen a especialistas, académicos, técnicos, y empresas, antes de generar una legislación que, idealmente, debe contemplar todos los aspectos, sin imponer una sobrecarga regulatoria.
Al respecto, Sissi de la Peña, especialista en regulación digital y representante de la Academia Mexicana de Ciberseguridad y Derecho Digital (AMCID), dijo que el tema regulatorio es preocupante con las 20 iniciativas que se han presentado en el Congreso y que nacen “de manera independiente, aleatoria y sin consultar con una base tecnológica y científica sobre qué impacto tendría regular tal o cual aspecto en la ley”.
En entrevista con Consumo TIC, la especialista se mostró escéptica: “no sé si tenga que haber una Ley de Inteligencia Artificial sí o sí. Tal vez sea mejor tener una política pública con visión de largo plazo, que no cambie con los sexenios, indique hacia dónde queremos llevar a México en los próximos años en materia de inteligencia artificial y ciberseguridad (temas que ya no pueden correr con agendas separadas), y nos aleje de la visión de que una sola persona va a llegar a proponer una ley y salvar toda la situación”.
De ahí que en el marco de la Asociación Nacional de Inteligencia Artificial (ANIA), que inició trabajos en abril pasado en el Senado de la República, se ha estado trabajando en un esquema “multiactor”, donde se escucha a todos los sectores y donde la AMCID ha trabajado para estudiar las distintas propuestas.
De hecho ahora, con el apoyo de la Embajada del Reino Unido en México y a través de AMCID, se ha estado impulsando desde la ANIA en un esquema de “Sandbox regulatorio”, es decir, un laboratorio de políticas públicas en un espacio contenido, donde diversos sectores como reguladores, academia, empresas y usuarios de la IA, estudian casos concretos, para ver cómo podrían aplicarse regulaciones de una manera ágil y eficaz, para verificar el uso ético de la IA, con base en los lineamientos éticos de la UNESCO.
De manera complementaria, se necesita educar a la población sobre los riesgos de la IA, y en general sobre su comportamiento en el mundo digital, en un proceso similar al que podría llevarse para educar a un niño sobre cómo cruzar una avenida principal, antes de dejar que lo haga solo. Esto, a partir de la convicción de que los ataques cibernéticos aumentarán conforme avance la adopción de la inteligencia artificial.
Lo importante es que estas políticas públicas se establezcan a partir de “la cuádruple hélice, es decir, la participación del sector privado, la academia, la sociedad civil y la colaboración internacional”, todo ello en un esquema multiactor que ocurre precisamente en el Congreso de la Unión, que es la representación de todos los mexicanos.
Cabe señalar que según el Índice Latinoamericano de Inteligencia Artificial (ILIA) de la Comisión Económica para América Latina y el Caribe (Cepal), México se ubica en el lugar número 5 a nivel regional, de las naciones con mayor penetración, adopción y desarrollo de esta tecnología.
El informe también destaca la necesidad de desarrollar habilidades tecnológicas asociadas a la IA, ya que la calificación de la región es de 2.16 por ciento, mientras que en el resto del mundo es de 3.59 por ciento. No obstante, en la región se está detonando el desarrollo de la IA, impulsado principalmente por la inversión privada, que en 2022 ascendió a 8 mil 200 millones de dólares.
Y precisamente ante la potencia que implica esta tecnología, Juan Sebastián Buendía, vicepresidente senior de Equipo Rojo y Cumplimiento de Octopus, advirtió en entrevista que la inteligencia artificial, así como puede generar grandes soluciones, también implicará muchos riesgos y anticipó que en 2024, los intentos de fraude con ingeniería social se van a disparar, a partir de un conocimiento más detallado de las personas por parte de la ciberdelincuencia, precisamente gracias al avance de la tecnología.
Pero también se notarán las vulnerabilidades y debilidades para la industria conforme avance la adopción de la tecnología.
Por ahora, la Radiografía del Emprendimiento en México 2023, elaborada por la Asociación de Emprendedores de México (ASEM) y la Fundación Friedrich Nauman México, todavía se mantiene un nivel de adopción relativamente bajo de la IA para sus procesos de gestión (14.9 por ciento en promedio), aunque en áreas como comunicación y publicidad llega hasta el 20.4 por ciento; creación de contenido, 16 por ciento y análisis de datos 12.3 por ciento.
Y, del otro lado, el mismo estudio de la ASEM indica que todavía los usos menos comunes en las empresas son el machine learning con 1.2 por ciento; la proyección de costos y ventas, con 2.5 por ciento; atención a clientes con 3.1 por ciento y chatbots con 4.9 por ciento.
Este escenario demuestra que todavía hay una gran área de oportunidad para los usos de esta tecnología en el ámbito de las empresas, aunque esto también lleva aparejados varios riesgos que en el futuro se deberán enfrentar con mecanismos legales que están por aprobarse.
Conforme tal adopción avance, también lo harán los riesgos, sobre todo para empresas pequeñas que deben abandonar el criterio de “a mí no me va a pasar”.
C$T-GM