México es uno de los primeros “early adopters” o pioneros que manifestaron su interés en tomar como base los instrumentos y políticas de la Recomendación sobre la Ética de la Inteligencia Artificial (IA) de la UNESCO, para cuya adopción los países contarán con el apoyo de un grupo de expertos.
“Vamos a lanzar una red de expertos sin frontera para apoyar a los países a lidiar con estas tecnologías”, afirmó Gabriela Ramos, subdirectora General de Ciencias Sociales y Humanas, de UNESCO, quien también reconoció el interés de México tanto en adoptar este instrumento como en mantener el nivel de ambición del documento.
Si bien reconoció que existen avances en regulaciones en América Latina y el Caribe, éstas se abordan desde diferentes ángulos, como desde la competencia en telecomunicaciones, en México; en neuroderechos, en Chile, o con una estrategia nacional basada en la ética y derechos humanos de Colombia, por lo que es necesario alinear objetivos.
“Han estado más enfocados en ver de qué forma no se quedan atrás con estas tecnologías, y usualmente sus estrategias nacionales de IA están enfocadas a avanzar en la investigación, en la inversión en infraestructura, a ver de qué manera las empresas pueden adoptar o absorber estás tecnologías, y lo que nosotros quisiéramos es que justamente se alineen todos estos objetivos comerciales, económicos, tecnológicos, con el marco ético y es ahí donde vamos a empezar”.
En conferencia de prensa virtual, reconoció que existen disparidades, “como todo en América Latina hay países que pueden estar en la punta y países que requieren mucho más apoyo”.
Europa, refirió, es la que ha marcado la vanguardia sobre la protección de datos personales en América Latina, y ayudó a muchos de los países en la región a tomar como referencia su legislación.
Por otra parte indicó que aunque se desarrollan evaluaciones sobre la eficacia y la eficiencia de las políticas en esta materia, no se pretende impulsar una sobrerregulación que luego impida el desarrollo de la innovación.
“No queremos que de repente haya tal cantidad regulatoria que sea imposible innovar, pero por otro lado también ya ha habido demasiada innovación sin ningún marco ético y es necesario equilibrar la situación”.
En su participación, Dafna Feinholz, jefa de la sección de Bioética y Ética en Ciencia y Tecnología, expuso que además de sesgos, vicios de origen en términos de la calidad de los datos o de los algoritmos, plataformas que usan contenidos nocivos para capturar la atención de los usuarios, también hay otros temas sobre salud y bienestar.
Otro tema que está incluido y que tiene que ver con los niños y niñas es la interacción con los robots, que puede tener un impacto importante en su desarrollo. Los adultos, subrayó, tienen el derecho de saber si están hablando con un robot o con un ser humano, pero en el caso de los pequeños el tema es distinto.
“Como se están humanizando estos robots, en el desarrollo de los niños esto tiene un impacto muy importante, porque después no sabes si están interactuando con un ser humano o no, y esto es otro de los temas muy importantes por los cuales hay que regular y que está claramente contemplado en nuestro documento”.
Explicó que el Artículo 84 de esta recomendación establece que los países deberían evaluar y reducir el impacto ambiental directo e indirecto que generan los sistemas de IA a lo largo de su ciclo vital, como huella de carbono, su consumo de energía y extracción de materias primas.
En cuanto a brecha de género, habla de asignar fondos presupuestales públicos para asegurar que las políticas digitales nacionales incluyan el tema de género en su plan de acción, que elaboren políticas sobre educación laboral y que las niñas y las mujeres no queden excluidas de la economía digital.
“Hay acciones muy concretas de cómo los gobiernos tienen que centrarse, en asegurar que estas tecnologías no van a exacerbar más las brechas que ya existen en el mundo analógico, que no sólo no las reproduzcan y las agranden, sino que traten de eliminarlas, de detectar todos los estereotipos, los sesgos y los corrijan de manera proactiva”.
C$T-GM