fbpx
martes, 9 de septiembre de 2025

internacional

Colusión algorítmica: ¿el odre viejo resiste el nuevo vino?

¿Cómo se adaptará la ley a algoritmos de una empresa que pueden llegar a fijar precios colusorios sin que los programadores sean conscientes de ello? Diversos especialistas ofrecieron su mirada al respecto durante un evento organizado por el Centro Competencia de la Universidad Adolfo Ibáñez y otras instituciones.

- 8 septiembre, 2025

2012 fue el año en que marcó en que Europa —el Tribunal de Justicia de la Unión Europea (TJUE)— aplicó el concepto de práctica concertada en entornos digitales, cuando Consejo de Competencia de Lituania 30 operadores turísticos y agencias de viajes fueron sancionados con más de 1,5 millones de euros por participar en una práctica de colusión en la venta de paquetes turísticos mediante el sistema de búsqueda y reservas online Eturas.

Corte Suprema Administrativa de Lituania

El hecho que se usó como argumento para acusar que existió una conducta anticompetitiva fue que Eturas envió cuestionarios por correo electrónico a varias agencias de la plataforma, consultándoles qué nivel de descuento deseaban que se aplicara. Poco después, remitió un nuevo mensaje en el que anunciaba la implementación de un cambio técnico que fijaba un límite máximo al descuento en las reservas realizadas mediante el sistema.

Con un simple clic, las agencias vieron reflejado en el sitio web el descuento establecido, independientemente de si conocían o no que se llevaría a cabo tal procedimiento.

El Consejo de Competencia de ese país concluyó que dicho correo y la ausencia de oposición de las agencias, configuraban una práctica concertada contraria al artículo 101 del Tratado de Funcionamiento de la Unión Europea (TFUE).

Los acusados apelaron ante la Corte Suprema Administrativa de Lituania. El tribunal señaló que el Consejo había basado principalmente su decisión en la presunción de que las agencias habían leído —o debían haber leído— el correo enviado por Eturas. Sin embargo, cuestionó si aquello era suficiente para demostrar una infracción.

El alto tribunal lituano elevó entonces una consulta al Tribunal de Justicia de la Unión Europea (TJUE), que en 2016 resolvió que el artículo 101 del TFUE debe interpretarse de modo que, si el administrador de una plataforma envía a las agencias un mensaje sobre cambios en los descuentos y luego estos se materializan, “puede presumirse que los referidos operadores económicos, a partir del momento en que tuvieron conocimiento del mensaje enviado por el administrador del sistema, participaron en una práctica concertada en el sentido de la citada disposición, si no se distanciaron públicamente de esa práctica o no la denunciaron a las autoridades administrativas o no aportaron otras pruebas para destruir tal presunción”.

El TJUE añadió que correspondía a los tribunales lituanos evaluar, conforme a sus normas internas, si el mero envío del mensaje constituía prueba suficiente de que los destinatarios conocían su contenido. Recordó además que la presunción de inocencia impide considerar que el simple envío de un correo sea evidencia concluyente de que sus receptores necesariamente lo leyeron.

Este caso abrió el debate sobre la posible responsabilidad cuando la colusión de precios se lleva a cabo mediante algoritmos.

Presupuestos irrelevantes

El presidente del Tribunal de Defensa de la Libre Competencia de Chile, Nicolás Rojas, inauguró el evento Challenges in Digital Platforms, organizado por el Centro Competencia de la Universidad Adolfo Ibáñez (CeCo), la USC Marshall Initiative on Digital Competition, el Instituto Sistemas Complejos de Ingeniería y la Facultad de Ingeniería Industrial de la Universidad de Chile. Su presentación abordó las dudas que plantea la colusión algorítmica de precios, en particular cuando se incorpora la inteligencia artificial en el proceso.

Nicolás Rojas

Rojas explicó que, bajo la teoría tradicional del derecho de la competencia, la calificación de una conducta como ilícita parte de ciertos supuestos: “Se asume que los agentes de mercado actúan racionalmente, que buscan maximizar su utilidad. Consideramos que cuentan con un grado de autonomía suficiente, lo que justifica el principio de responsabilidad —civil, penal, administrativa u otra—. Finalmente, rige la prohibición de conductas que eliminen la incertidumbre competitiva, lo que determina la sanción en caso de colusión”.

El problema surge con la introducción de la inteligencia artificial en la toma de decisiones empresariales, pues vuelve obsoletas esas premisas y obliga a replantear cuestiones básicas, como: ¿Qué expectativas racionales podemos tener respecto de lo que es lícito o ilícito?

“Debemos preguntarnos primero en qué momento termina el comportamiento humano y comienza el de la IA para efectos de atribuir responsabilidad. En segundo lugar, hay que someter a prueba la noción misma de incertidumbre competitiva, ya que las prácticas ilegales buscan eliminarla mediante el intercambio de información entre competidores», planteó Rojas. Hasta ahora, se partía del supuesto de que los agentes no podían procesar por sí solos toda la información disponible en un mercado, pero eso cambió con la masificación de los sisteas de inteligencia artificial, explicó.

Los sistemas algorítmicos, capaces de manejar volúmenes de datos mucho mayores y con mayor precisión que las personas, permiten a las empresas anticipar de manera más certera y rápida las reacciones de sus competidores frente a sus propios movimientos.

Ello influiría en sus decisiones mediante comportamientos más informados, que reducen los riesgos asociados a la adopción de determinadas estrategias competitivas. De esa forma, pueden decidir precios convenientes sin necesidad de ejecutar acuerdos ilegales con otras compañías.

Sin embargo, si todos los actores del mercado utilizan herramientas similares, aumenta la interdependencia en la fijación de precios. No obstante, Rojas subrayó que, si no existe comunicación previa entre empresas y el algoritmo sólo procesa información pública, no podría configurarse una infracción.

“Si para contrarrestar ese efecto asumiéramos que cada vez que se observa un comportamiento paralelo existe una falta de competencia, estaríamos forzando a las compañías a actuar de manera irracional para cumplir la ley, a ignorar deliberadamente información disponible y adoptar decisiones contrarias a su propio interés, como impedir que los algoritmos procesen datos accesibles”, advirtió.

¿Qué tan importante es la voluntad humana?

Eugenio Ruiz-Tagle

Eugenio Ruiz-Tagle, académico del Computational Antitrust Project del Stanford Codex Center, explicó durante el evento que el mecanismo más básico de fijación de precios mediante algoritmos consiste en programar, por ejemplo, a una tienda digital para que, si un competidor reduce sus tarifas, el sistema iguale automáticamente los valores de ese comercio electrónico.

“A partir de allí evolucionamos hacia algoritmos de aprendizaje que procesan grandes volúmenes de datos sobre la dinámica del mercado. Identifican patrones en la información disponible y realizan predicciones para optimizar una función determinada, en este caso fijar un precio que maximice los beneficios. Pero van más allá, porque estas IAs no observan un escenario estático, sino que se anticipan a los hechos y generan una política en lugar de un simple resultado. En esencia, trazan un mapa de los distintos estados posibles y de las consecuencias asociadas a cada uno”, señaló Ruiz-Tagle.

Por su parte, Aditya Karanam, profesor asistente de la Naveen Jindal School of Management de la Universidad de Texas en Dallas, sostuvo que pueden distinguirse cuatro escenarios de potencial colusión algorítmica.

Aditya Karanam

El primero, el más simple, corresponde a la colusión tradicional entre humanos para fijar precios, utilizando software únicamente como herramienta de implementación. El segundo surge cuando diversas compañías emplean un mismo algoritmo de un tercero para definir precios, lo que puede facilitar la coordinación entre usuarios y desembocar en colusión. El tercero aparece cuando los programadores diseñan algoritmos destinados a vigilar y responder a las estrategias de precios de los competidores, generando prácticas concertadas accidentalmente.

El cuarto escenario, el más reciente que Karanam identifica, elimina prácticamente la intervención humana: “Con los avances del aprendizaje automático y la mayor transparencia de los mercados, los algoritmos de una empresa pueden llegar a fijar precios colusorios sin que los programadores sean conscientes de ello”.

Ante la posibilidad de un futuro en el que sea la IA quien determine los precios, surge la pregunta: ¿puede sancionarse por colusión a un grupo cuando no existe un acuerdo directo entre personas?

Tilman Kuhn

Tilman Kuhn, socio de Latham & Watkins, destacó la dificultad de atribuir responsabilidad en estos casos: “Para establecer colusión, necesitas probar un acuerdo explícito entre las partes o una práctica concertada, que es más difícil de demostrar, pero implica un grado de cooperación probable. Sin embargo, es legal monitorear a la competencia y adaptarse a sus cambios, incluso si se utiliza inteligencia artificial para ello”.

Kuhn añadió nuevas interrogantes jurídicas respecto del uso de IA en la fijación de precios: “Si programo mi algoritmo para que iguale automáticamente los precios de mi competidor, ¿él puede advertirlo al observar cómo mis valores se ajustan a los suyos? ¿Es eso suficiente para presumir complicidad? Son cuestiones legales complejas, y en el estado actual de la legislación de la Unión Europea creo que sería muy difícil establecer responsabilidad sin algún grado de comunicación entre los actores humanos”.

Las respuestas que ofrecen EEUU y la UE

En cuanto a ejemplos concretos, Tilman Kuhn mencionó el caso Eturas en Lituania como uno de los más cercanos a cómo la Unión Europea entiende la colusión algorítmica. Agregó también una situación ocurrida en Luxemburgo en 2018, relacionada con una plataforma de taxis en la que empresas independientes utilizaban el mismo sistema de reservas. La aplicación asignaba automáticamente al conductor más próximo al pasajero y además fijaba el precio.

Beatriz Mejía

“¿Les suena familiar? En ese caso, la autoridad sostuvo que existía fijación de precios entre competidores horizontales, pero autorizó la práctica algorítmica debido a sus eficiencias, ya que generaba tarifas más bajas, menos cancelaciones y un efecto positivo en el medioambiente, puesto que redujo los trayectos vacíos”, explicó el abogado.

En Estados Unidos, el panorama es distinto. Beatriz Mejía, socia en Cooley LLP, señaló que, a diferencia de la UE, no existe la figura de práctica concertada. Por ello, para acreditar colusión es necesario probar la existencia de un acuerdo de voluntades —con evidencia directa o indirecta— entre las partes.

Mejía indicó que los tribunales suelen analizar conductas que evidencien la existencia de un acuerdo y la presencia de los llamados “factores adicionales”. Para ilustrar cómo se resuelven estos casos, presentó dos ejemplos. El primero involucró a hoteles-casinos de Las Vegas y Atlantic City que utilizaban el mismo software algorítmico para fijar los precios de sus habitaciones, lo que derivó en tarifas similares.

“El caso fue desestimado porque no se pudo demostrar de manera concluyente la existencia de un acuerdo. Los jueces consideraron que el comportamiento de los hoteles no era realmente paralelo: no había pruebas de que los demandados hubieran comenzado a usar el software en el mismo momento ni durante un periodo común de 10 a 15 años. Otro elemento relevante fue que la parte demandante no logró acreditar que los acusados emplearan datos confidenciales de sus competidores en el algoritmo”, explicó Mejía.

El segundo caso giró en torno a RealPage Inc., empresa dedicada al software de gestión inmobiliaria para la fijación algorítmica de alquileres. Fue demandada civilmente por el Departamento de Justicia de EE. UU. junto con los fiscales generales de Carolina del Norte, California, Colorado, Connecticut, Minnesota, Oregón, Tennessee y Washington por colusión en precios. Una de las pruebas consistió en declaraciones públicas de ejecutivos inmobiliarios que afirmaban que el algoritmo de RealPage —publicitado en su propio material de marketing— ayudaba a los competidores a “trabajar juntos” para asegurar “precios exitosos”.

“Además, existían pruebas indirectas suficientes de cambios paralelos en las estrategias de precios entre los demandados, lo que demostraba un patrón coherente de conducta. También hubo acusaciones de que RealPage incorporaba información confidencial no pública en su algoritmo para elaborar recomendaciones. En definitiva, cada acusado entregó sus datos comerciales privados al proveedor del software, con pleno conocimiento de que serían utilizados para facilitar la colusión”, concluyó Mejia.

Combatiendo la caja negra

¿Cómo se fiscaliza entonces la presencia de inteligencia artificial en casos de colusión? Según los especialistas, la participación de una fuerza no humana complica la determinación de responsabilidades.

ChatGPT

“Los modelos de lenguaje (LLM) pueden ejecutar tareas de maneras no previstas y mediante procedimientos no concebidos. Un ejemplo reciente ocurrió con ChatGPT-4, al que se le pidió resolver un captcha. Lo logró contratando a un humano, pero para hacerlo mintió afirmando ser una persona con discapacidad visual. Nadie le pidió que mintiera, solo se le encomendó la tarea. Ahora imagina una situación en la que el encargo sea encontrar un precio óptimo, lo que llevaria a la IA a mentirnos o utilizar mecanismos no previstos”, explicó Eugenio Ruiz-Tagle.

El académico añadió que, pese a esos riesgos, los LLM ofrecen ciertas ventajas en materia de transparencia, ya que funcionan a partir de prompts o cadenas de instrucciones introducidas por los usuarios. Asimismo, las inteligencias artificiales pueden explicar de forma explícita las razones de sus resultados.

Por ello, en casos de algoritmos de fijación de precios que operen bajo estas condiciones, las agencias de competencia podrían, en teoría, analizar los prompts para dilucidar responsabilidades, al menos en situaciones donde el usuario haya buscado expresamente utilizar IA con fines colusorios.

No obstante, para Aditya Karanam la cuestión no es tan sencilla: “Un LLM es una caja negra. La investigación que intenta explicar el razonamiento de la IA se encuentra aún en una fase muy incipiente. Esto significa que, incluso si las autoridades de competencia obtuvieran acceso al código fuente y a todos los datos de entrenamiento, no podrían identificar el conjunto específico de instrucciones ni la fuente concreta en la información de entrenamiento que condujo a la colusión. En consecuencia, resulta muy difícil rastrear su origen”.

El profesor advirtió además que existe el riesgo de que los usuarios nunca puedan conocer la verdadera intención de una IA: “En una investigación se preguntó directamente a un LLM si participaba en una práctica concertada de colusión y simplemente respondió que jamás haría algo así. Por lo tanto, aplicar la ley en estos escenarios sería extremadamente complejo”.

Paciencia para el odre

Natalia Caroprese

“El problema es cómo podemos exigir a las compañías que dejen de utilizar herramientas que aumentan su eficiencia o maximizan su utilidad y que, en consecuencia, resultan racionales de emplear. Sobre todo cuando no existe uso de información privada de terceros ni intercambio explícito de datos”, planteó el presidente del Tribunal de Defensa de la Libre Competencia de Chile, Nicolás Rojas.

El magistrado señaló que se han propuesto diversas soluciones para enfrentar la colusión algorítmica. Entre ellas, impedir que las empresas se eximan de responsabilidad alegando la autonomía del sistema —como señaló la Unión Europea en 2017— o prohibir que deleguen completamente sus estrategias de precios en la inteligencia artificial, estableciendo la obligación de que siempre exista una persona identificable a cargo de la toma de decisiones.

Felipe Irarrázabal

“Creo que no debemos apresurarnos a regular algo que quizá aún no comprendemos del todo, porque este tipo de medidas puede frenar la innovación, las inversiones y el desarrollo de startups que están surgiendo en Latinoamérica. Debemos asegurarnos de que nuestros marcos normativos no ahuyenten a los inversores. Tal vez podamos explorar el uso de sandbox regulatorios, si fuera necesario, para diseñar marcos jurídicos más claros”, expresó Natalia Caroprese, legal counsel de Uber para Latinoamérica en materia de competencia.

Por su parte, Felipe Irarrázabal, director del CeCo, sostuvo que será necesario esperar a que surjan más casos vinculados con colusión algorítmica para consolidar una jurisprudencia sólida: “No es sencillo hacer evaluaciones ni proponer soluciones muy novedosas, porque se corre el riesgo de generar falsos positivos o negativos. Habrá que ver si el odre viejo resiste el vino nuevo, y también estar atentos a las regulaciones que vaya implementando Europa, que es el gran referente en esta materia”.

 
También te puede interesar:
CeCo Bolivia se suma a red en Latam
Centro de Competencia UAI estrena su nueva herramienta CeCoBot
Tendencias internacionales en colusión y libre competencia
 

artículos relacionados


podcast Idealex.press