CeCo | Concurrences (2025): Precios algorítmicos y desafíos
Newsletter

https://centrocompetencia.com/wp-content/themes/Ceco

Concurrences Awards (2025): Precios algorítmicos y desafíos de regulación (Nazzini y Henderson)

28.05.2025
CeCo Chile
8 minutos
Claves
  • El artículo aborda el creciente uso de algoritmos de precios y sus posibles riesgos colusorios, identificando cuatro escenarios principales de conducta algorítmica, con implicancias distintas para la responsabilidad legal y la fiscalización.
  • Destaca que, aunque la detección del uso de algoritmos no es compleja per se, el gran volumen de datos y la sofisticación de los algoritmos dificultan identificar patrones claros de colusión. Esto exige un cambio de enfoque hacia el estudio de las dinámicas de mercado en presencia de algoritmos.
  • Señala la necesidad de que las autoridades incorporen herramientas automatizadas para gestionar y analizar volúmenes de datos masivos.
  • Diferencia dos tipos de auditorías: empíricas (análisis de efectos en el mercado) y técnicas (revisión del código algorítmico), y propone además un enfoque preventivo basado en testeo ex ante de algoritmos por parte de las empresas, complementado con guías normativas para facilitar la supervisión.
Keys
  • The article examines the increasing use of pricing algorithms and their potential collusive risks, identifying four main algorithmic conduct scenarios with different implications for legal liability and enforcement.
  • It highlights that while detecting the use of algorithms is not inherently difficult, the massive volume of data and algorithmic sophistication make it challenging to identify clear collusion patterns, calling for a shift in focus toward understanding market dynamics in algorithm-heavy environments.
  • The authors emphasize the need for competition authorities to adopt automated tools to manage and analyze vast data volumes.
  • They distinguish between two types of audits: empirical (market impact analysis) and technical (algorithm code review), and propose a preventive approach involving ex ante algorithm testing by firms, complemented by normative guidelines to ease regulatory oversight.

En abril de este año, la plataforma especializada en derecho y economía de la competencia Concurrences, otorgó los “Antitrust Writing Awards” a los mejores artículos académicos sobre libre competencia publicados durante el año 2024. Esto, para distintas categorías de libre competencia, tales como general economics, prácticas concertadas, conductas unilaterales, fusiones, propiedad intelectual, enforcement privado, digital y transfronterizo.

En CeCo, con miras a difundir las discusiones y análisis que ofrecen estos artículos entre los practicantes y académicos de nuestra región, asumimos la tarea de revisar y resumir la mayoría de los artículos que fueron premiados, y que tienen o podrían tener un impacto en Latinoamérica.

Esta nota se refiere al artículo “Overcoming the Current Knowledge Gap of Algorithmic “Colussion” and the Role of Computational Antitrust”, de los autores Renato Nazzini y James Henderson (ambos de King’s College London). Este paper fue el ganador de la categoría “prácticas concertadas”.

En concreto, el artículo provee un contexto general sobre el uso de algoritmos de precios, las formas en las que estos pueden alimentar escenarios colusorios, y los desafíos que enfrentan las autoridades de competencia para detectarlos. A través de una revisión de literatura, casos reales y herramientas disponibles, los autores reconocen una brecha entre la capacidad de las empresas para adoptar algoritmos de precios y la capacidad de las autoridades de enfrentarlos eficazmente, y proponen mecanismos para que estas últimas reduzcan dicha brecha.

Algoritmos de precios y escenarios colusorios

Los algoritmos de precios tienen varias clasificaciones. En primer lugar, se pueden diferenciar según si se basan en parámetros y reglas determinadas por humanos, o si se basan en reglas construidas por machine learning —que cambian de forma automática y son adaptativas—. Dentro de este último grupo, los algoritmos se pueden diferenciar según si su sistema es de aprendizaje: (i) supervisado; (ii) no supervisado; o (iii) por refuerzo. En este marco, los autores comentan que los algoritmos de machine learning, a diferencia de los determinados por humanos, generan ciertos desafíos para su fiscalización. Esto, en la medida que suelene contener “cajas negras” respecto a la manera en que procesan los datos (para entrar en detalle sobre el funcionamiento de estas herramientas, sugerimos ver la nota CeCo “OCDE: Competencia Algorítmica”).

Si bien el uso de estas herramientas computacionales está asociado a varias ventajas para quien las adopta, se han elevado preocupaciones anticompetitivas relacionadas con la facilitación de conductas coordinadas. En específico, los autores recuentan los 4 escenarios identificados por Ezrachi y Stucke, en que se podrían dar estas conductas:

  • “Mensajero” (messenger): Los algoritmos ejecutan y monitorean acuerdos explícitos entre competidores.
  • Hub & Spoke: Los competidores contratan al mismo proveedor de servicios de algoritmos de precios (ver nota CeCo: “Ezrachi y Stucke: Colusión tácita algorítmica”).
  • “Agente Predecible” (predicable agent): Los competidores unilateralmente adoptan de forma deliberada estas herramientas diseñadas para facilitar la colusión tácita.
  • “Ojo Digital” (digital eye): Los algoritmos “aprenden” a coludirse de forma autónoma e independiente a la hora de buscar maximizar el beneficio.

Respecto de estos escenarios, los autores señalan que tanto Agente Predecible como Ojo Digital —y bajo ciertas condiciones, Hub & Spokeforma parte de las conductas puramente automatizadas. En este sentido, esta distinción frente a Mensajero (la cual implica la existencia un acuerdo concertado tradicional), tiene implicancias relevantes en términos de enforcement. Esto, pues los conceptos de responsabilidad jurídica e imputación se vuelven más difusos en la ausencia de intervención humana directa (ver investigación de Antonia Paul: “Análisis jurídico del uso de algoritmos en la determinación de precios”).

Detección de colusión algorítmica: mecanismos y desafíos

Para analizar técnicas de detección de colusión algorítmica, los autores señalan que, en primer lugar, es importante detectar si las empresas se encuentran adoptando algoritmos de precios (dado que las empresas no suelen anunciar públicamente dicha adopción). Al respecto, los autores destacan que la frecuencia con la que cambian los precios de un producto permitiría identificar el uso de estas tecnologías. Artículos como el de Chen et. al (2016) y Wieting et. al (2021), que estudian ciertos patrones de precios en Amazon y Bol.com respectivamente, encuentran que, a grandes rasgos, los precios cambiaban varias veces dentro de un mismo día y que estaban correlacionados entre ellos. Este comportamiento en los precios resultaba indicativo de la adopción de algoritmos de precios.

En este sentido, Nazzini y Henderson que la detección del uso de algoritmos no es en sí misma un proceso excesivamente complejo. En cambio, el verdadero desafío consistiría en acceder y manejar la cantidad de datos que son necesarios para el análisis de estos algoritmos (tema que es comentado por los autores con posterioridad).

En cuanto a la detección de precios algorítmicos en contextos colusorios, los autores señalan que, desde el punto de vista teórico, existen ciertos patrones comúnmente utilizados como indicios de colusión: la baja varianza de precios, la uniformidad entre competidores, la correlación negativa entre precio y demanda, aumentos abruptos en márgenes, y ciclos de precios con caídas y restauraciones. Sin embargo, los autores advierten que, en la práctica, estos indicadores pueden volverse menos evidentes o incluso irrelevantes. Esto se debe a que los algoritmos, al ser más precisos y adaptativos, permiten implementar acuerdos colusorios más estables y sofisticados, reduciendo la necesidad de señales detectables y alterando los patrones tradicionales asociados a la colusión. Para respaldar esto, los autores mencionan que las autoridades de Alemania y Francia han propuesto que los algoritmos de precios se podrían programar para que implementen diferentes precios en periodos de baja demanda, o que podrían generar periodos de heterogeneidad de precios. Así, estas reglas, -deliberadamente programadas- tendrían por objeto debilitar la homogeneidad de precios y hacer más improbable el equilibrio colusorio.

De la misma forma, los autores destacan que artículo de Wieting et al., mencionado previamente, reconoce cinco patrones de comportamiento de precios que podrían asociarse con algoritmos de precios, pero no necesariamente a conductas colusorias. Esto patrones son: cambios transitorios y abruptos en precios, alzas pronunciadas seguidas por caídas lentas, alzas lentas y caídas pronunciadas, precios alternantes, y saltos aleatorios. En este sentido, el screening de colusión algorítmica sigue siendo altamente complejo y limitado. Por ello, los autores proponen un cambio de enfoque: en lugar de centrar los esfuerzos en detectar la colusión, sugieren avanzar en comprender cómo operan los mercados con alta presencia de algoritmos de precios y las dinámicas competitivas que ellos generan.

Precios algorítmicos y datos: desafíos para las autoridades

Para enfrentar eficazmente los desafíos que plantean los sistemas de algoritmos de precios, los autores remarcan que las autoridades de competencia deben incorporar herramientas automatizadas en sus propias labores de supervisión. Dado el volumen masivo de datos que se generan en estos procesos (con cientos de cambios de precios en un mismo día), realizar auditorías sin apoyo tecnológico se vuelve una tarea prácticamente imposible. De la misma forma, estos datos deberían contener información que reconozca comportamiento colusorio y comportamiento competitivo. En esta línea, los autores destacan la experiencia de agencias como la CMA en el Reino Unido, con su unidad “DaTA”, y herramientas para detectar acuerdos verticales. También se refieren al proyecto “Sabueso” en Colombia, que utiliza bots y machine learning para monitorear precios en línea, como ejemplos concretos de esta transición hacia la automatización regulatoria (para más información de este tipo de experiencias, ver nota CeCo: “Computational Antitrust (Stanford): Un Año de Progreso y Desafíos”).

En complemento de lo anterior, la calidad de los datos tiene igual relevancia que el acceso a estos mismos. En esta línea, cuando lo autoridad cuenta con datos, surgen nuevos desafíos. Por ejemplo, varias autoridades (como la australiana o griega) han demostrado intenciones e iniciativas de consolidar una base de datos transfronteriza que contenga información de licitaciones públicas (para potenciar el entrenamiento del screening en estos procesos). Sin embargo, los autores señalan que la “traducción” entre bases de datos no es tan directa, considerando las diferencias estructurales en las dinámicas de las licitaciones entre cada país. Esto, por consecuencia, implica que los modelos entrenados con la información de un país pueden no ser eficaces al aplicarse a otros países. No obstante, destacan que estas diferencias pueden ser parcialmente reducidas mediante técnicas estadísticas.

Como última instancia, los autores comentan la posibilidad de usar bases de datos sintéticas, es decir, bases que replican la estructura y características estadísticas de los datos reales. Esto, con el fin de mitigar estos problemas, además de posibilitar el resguardo de la confidencialidad de los datos. Si bien estos datos ya han sido empleados en algunos sectores (como el de salud), los autores señalan que todavía no existen medidas estándares para la medición de la utilidad de dichos datos.

Auditorías y testeo de colusiones

Finalmente, Nazzini y Henderson segmentan las auditorías que pueden realizar las autoridades en materia de algoritmos, en dos tipos: auditorías empíricas o auditorías técnicas. Las primeras se centrarían en un análisis de los efectos del comportamiento de las empresas sobre el mercado —por ejemplo, efectos sobre precios y excedente del consumidor—, mientras que las segundas se refieren a una revisión explícita de los códigos (lenguaje de programación) que gobiernan el funcionamiento de los algoritmos.

Aunque las auditorías empíricas son más fáciles de verificar, no permiten identificar con certeza los mecanismos internos que conducen a posibles escenarios colusorios. Por otro lado, las auditorías técnicas, por que ofrecen una comprensión profunda de la “mente” de los algoritmos, son teóricamente muy complejos de implementar, en vista de la opacidad y sofisticación de estos sistemas. Además, una cosa es tener acceso al código fuente de un algoritmo, y otra distinta es acceder a los datos con que ese algoritmo opera.

En complemento a esta idea, los autores citan la propuesta de Joseph Harrington, que sugiere un enfoque preventivo consistente en un testeo de las condiciones bajo las cuales los algoritmos reaccionan a determinadas circunstancias de mercado para evaluar la probabilidad de colusión. Esto implicaría que las empresas presenten a la autoridad sus herramientas algorítmicas para que sean puestas a prueba bajo ciertos parámetros, considerando ilegales aquellas conductas en las que se suben precios sin justificación económica. Esta estrategia, asimismo, contribuiría con alivianar la carga de monitoreo para las autoridades.

Finalmente, se señala la posibilidad de ir más allá de las auditorías realizadas por parte de las autoridades de competencia, y trasladar parte de la responsabilidad hacia las empresas. En esta línea, los autores mencionan la elaboración de guías normativas para la evaluación ex ante del rendimiento de las tecnologías de fijación de precios por parte de las autoridades, un enfoque que ya ha sido estudiado y considerado viable.

También te puede interesar

Bruno Nocera Q.

Regístrate de forma gratuita para seguir leyendo este contenido

Contenido exclusivo para los usuarios registrados de CeCo