La Comisión Europea, la Autoridad de Competencia y Mercados del Reino Unido (CMA), el Departamento de Justicia y la Comisión Federal de Comercio, ambas de los Estados Unidos, adoptaron un acuerdo sobre competencia en modelos básicos de Inteligencia Artificial Generativa y productos de esta tecnología.
El documento se basa en conceptos de mercados justos, abiertos y competitivos; toma de decisiones soberana; considera el tema como un punto de inflexión tecnológica, reconoce riesgos para la competencia y establece principios para protegerla en el ecosistema de la Inteligencia Artificial (IA).
El documento firmado por Margrethe Vestager, vicepresidenta ejecutiva y comisaria de Competencia de la Comisión Europea; Sarah Cardell, directora ejecutiva de la Autoridad de Competencia y Mercados del Reino Unido; Jonathan Kanter, Fiscal General Adjunto, Departamento de Justicia de los Estados Unidos y Lina M. Khan, presidenta de la Comisión Federal de Comercio de Estados Unidos, señala que las autoridades comparten el compromiso de garantizar una competencia efectiva, trato justo y honesto tanto para los consumidores como para las empresas.
Esto, bajo el principio de que “los mercados justos, abiertos y competitivos ayudarán a aprovechar las oportunidades, el crecimiento y la innovación que estas tecnologías podrían brindar”.
Asimismo, tomando en cuenta que las facultades y contextos jurídicos de cada una de las autoridades señaladas son distintos, “nuestras decisiones siempre serán soberanas e independientes. Sin embargo, si los riesgos que se describen a continuación se materializan, es probable que lo hagan de una manera que no respete las fronteras internacionales”.
De ahí que “estamos trabajando para compartir una comprensión de las cuestiones según corresponda y nos comprometemos a utilizar nuestros respectivos poderes cuando corresponda”.
Entre tales riesgos, señalan que la IA, si bien tiene el potencial de beneficiar a los ciudadanos, impulsar la innovación y el crecimiento, “hay muchas incógnitas sobre la trayectoria precisa que seguirán estas herramientas”, en especial la IA generativa.
Los puntos de inflexión tecnológicos pueden introducir nuevos medios de competencia, catalizar oportunidades, innovación y crecimiento y por lo tanto “debemos trabajar para garantizar que el público aproveche al máximo los beneficios de estos momentos”.
Sin embargo, advierten que se pueden presentar tácticas anticompetitivas, pues “existen riesgos de que las empresas intenten restringir los insumos clave para el desarrollo de tecnologías de IA; que empresas con poder en los mercados digitales amplíen ese poder en mercados adyacentes o en ecosistemas diferentes, aprovechando la retroalimentación y los efectos de red para aumentar las barreras de entrada y perjudicar la competencia”.
También la IA puede desarrollarse o usarse de manera que perjudique a los consumidores o empresarios. Por eso y “dada la velocidad y dinamismo de los avances de la IA, y aprendiendo de nuestra experiencia con los mercados digitales, nos comprometemos a utilizar los poderes disponibles para abordar esos riesgos antes de que se arraiguen o se conviertan en daños irreversibles”.
“Si bien reconocemos los grandes beneficios potenciales de los nuevos servicios, también vemos riesgos que requieren una vigilancia constante. La clave para evaluar estos riesgos será centrarse en cómo los nuevos modelos de negocio de la IA impulsan los incentivos y, en última instancia, el comportamiento”, advierte el documento.
De ahí la importancia del control concentrado de insumos clave, como los chips especializados, la capacidad de procesamiento sustancial, datos a escala y conocimientos técnicos especializados, que se consideran como ingredientes críticos para desarrollar modelos de base.
Potencialmente, un pequeño número de empresas estaría en posición de explotar cuellos de botella existentes o emergentes en toda la pila de IA y tener una influencia descomunal sobre el desarrollo futuro de estas herramientas, limitando el alcance de la innovación disruptiva, o bien, permitir que las empresas la moldeen para su beneficio, a expensas de la competencia justa.
Las grandes empresas digitales podrían controlar en su beneficio, los canales de distribución de la IA o de los servicios habilitados por la IA ampliando o consolidando las posiciones que pudieron establecer mediante el último gran cambio tecnológico en detrimento de la competencia futura.
Además, los acuerdos que involucran a actores clave podrían amplificar los riesgos y por ello, se establecen principios para proteger la competencia y la innovación: trato justo, interoperabilidad y elección. “Cualquier afirmación de que la interoperabilidad exige sacrificios en materia de privacidad y seguridad será objeto de un minucioso análisis”.
“Somos conscientes de otros riesgos que pueden surgir cuando se implementa la IA en los mercados. Entre ellos que los algoritmos permitan a los competidores compartir información sensible a la competencia; fijar precios o coludirse en estrategias comerciales o que los algoritmos permitan una discriminación de precios o exclusión injusta”.
De ahí que “estaremos atentos a estos y otros riesgos que puedan surgir a medida que la tecnología de IA se desarrolle más. Nos comprometemos a monitorear y abordar cualquier riesgo específico que pueda surgir en relación con otros desarrollos y aplicaciones de IA, más allá de la IA generativa”.
Finalmente se reconocen también riesgos para el consumidor asociados a la IA, como prácticas engañosas o injustas. La CMA, el Departamento de Justicia y la FTC, que tienen autoridad para proteger al consumidor, también estarán atentos a cualquier amenaza a la protección del consumidor que pueda derivarse del uso y la aplicación de la IA.
Las empresas que utilizan de manera engañosa o injusta los datos de los consumidores para entrenar sus modelos pueden socavar la privacidad, la seguridad y la autonomía de las personas. Y por eso los consumidores deben informarse, cuando sea pertinente, sobre cuándo y cómo se utiliza una aplicación de IA en los productos y servicios que compran o utilizan.
C$T-GM






































