Newsletter
Suscríbete a nuestro Newsletter y entérate de las últimas novedades.
https://centrocompetencia.com/wp-content/themes/Ceco
El pasado 18 de junio se realizó el evento de lanzamiento del cuarto informe anual del programa de Stanford, en colaboración con la OCDE. El encuentro contempló la realización de un panel de discusión para discutir los avances recientes en el uso de IA y análisis de datos en la labor diaria de las autoridades de competencia. Participaron del panel Thibault Shrepel (del centro Stanford CodeX) y Teodora Groza (Sciences Po), Susana Fernández (CNMC), Lukas Cavada (AFCA), Despina Pachnou (OECD) y Antonio Capobianco (OECD).
Tal como hicimos el año pasado, en esta nota cubriremos algunos avances reportados en el informe, haciendo especial mención a las autoridades latinoamericanas. Además, repasaremos algunas ideas discutidas en el panel del evento.
Si bien el informe analiza la experiencia de 25 países, en esta sección se presenta un panorama actualizado de los avances y proyectos de herramientas computacionales implementados por las principales agencias de competencia de Latinoamérica.
En el caso chileno, destacó a la Unidad de Inteligencia (UI) de la Fiscalía Nacional Económica (FNE) como la gran protagonista de los avances computacionales en competencia. Esta unidad forma parte de la División Anticarteles desde 2020, y se encuentra conformada por un abogado, un econonomista/cientista de datos y un ingeniero en software. Su misión es desarrollar herramientas computacionales para fortalecer la detección y persecución de carteles.
En materia de monitoreo de mercados (market screening), la UI ha desarrollado tres herramientas: (i) un sistema automatizado que recopila diariamente los precios de más de 80.000 productos en línea, facilitando tanto la respuesta a reclamos de consumidores como las investigaciones en curso; (ii) un recolector de noticias, que monitorea más de quince plataformas digitales y almacena más de 360.000 artículos para mantener actualizados a los investigadores de la FNE, y (iii) un procesador de datos aduaneros, que organiza información desde 2007, permitiendo identificar actores relevantes del mercado, analizar concentración y precios, y agilizar significativamente las investigaciones (al reducir la necesidad de solicitar datos de manera formal).
Para fortalecer las investigaciones de carteles, la UI ha desarrollado una herramienta computacional de screening que analiza licitaciones públicas pasadas, identificando automáticamente patrones sospechosos como repartición de contratos, adjudicaciones reiteradas o precios atípicos (para más información sobre este concepto, véase nota CeCo: OCDE: Herramientas de data screening para Investigaciones sobre Competencia). Además, la unidad ha implementado soluciones prácticas como scripts para visualizar redes de llamadas telefónicas y algoritmos de deep learning capaces de detectar texto en imágenes extraídas de dispositivos móviles incautados en allanamientos.
En el informe previo, se destacó el desarrollo de la agencia de competencia brasileña, CADE, de un proyecto de análisis e investigación de datos llamado “Cerebro”. Esta plataforma, utiliza análisis avanzado de datos y algoritmos para detectar y perseguir carteles en licitaciones públicas en Brasil (para más información sobre Cerebro, ver nota CeCo: Computational Antitrust (Stanford): Un Año de Progreso y Desafíos)
Ahora bien, la novedad es que el último año, Cerebro fue clave para la detección de un caso de colusión. En efecto, la Operación Novo Rumo (diciembre 2024), permitió desarticular un cartel de infraestructura vial por más de R$9.000 millones (equivalente a USD 1.64 mil millones), y Cerebro detectó patrones de colusión (como direcciones IP compartidas, co-oferentes recurrentes y similitudes en documentos) a partir del análisis masivo de datos públicos.
En este sentido, el informe también destaca la integración efectiva de machine learning y web scraping en el monitoreo de licitaciones, junto con la innovación en la presentación de la evidencia: CADE priorizó reportes accesibles y narrativos para facilitar la comprensión de jueces y autoridades no técnicas, lo que fue clave en el éxito judicial del caso Novo Rumo. Asimismo, Cerebro amplió su alcance al mercado de combustibles, incorporando algoritmos para detectar posibles carteles en precios y márgenes a nivel local. De todas formas, persisten desafíos en la traducción de resultados técnicos a un lenguaje comprensible para el sistema judicial y en la superación de trabas institucionales que dificultan el acceso a tecnología avanzada en el sector público (escuchar podcast con E. Ruiz-Tagle sobre desafíos del uso de herramientas de IA para probar la colusión).
Durante este año, la Comisión Nacional de Mercados Competitivos de España (“CNMC”) ha estado modernizando su enfoque para detectar colusión en licitaciones públicas: sigue usando como base su herramienta Bid Riging Algorithm for Vigilance in Antitrust (“BRAVA”), que identifica patrones sospechosos con machine learning, pero ahora la potencia integrando análisis de redes (para visualizar conexiones entre empresas y personas).
Este año destacan por hacer sus resultados más explicables usando metodologías como LIME y SHAP (así cualquier analista o juez puede entender por qué la IA detectó algo raro), sumar dashboards visuales, y probar técnicas de última generación como redes neuronales de grafos y zero-shot learning (sobre IA explicable para abogados, ver artículo y de Malca, Quiñones y Gómez; y podcast).
Durante la apertura del evento de lanzamiento, Teodora Groza y Thibault Schrepel presentaron, a modo de resumen, un diagnóstico general sobre cómo las agencias de competencia están integrando herramientas computacionales en sus operaciones. Su exposición se organizó en tres grandes categorías: (i) las herramientas analíticas avanzadas utilizadas para detectar carteles y riesgos en operaciones de concentración; (ii) las inversiones en infraestructura de datos robusta, y (iii) los cambios institucionales que han acompañado esta transformación (i.e. la creación de unidades digitales internas y el fomento de colaboraciones abiertas).
Tal como se mostró en la sección anterior, el principal uso reportado por las agencias de competencia sigue siendo la detección de bid rigging. Este fenómeno es especialmente relevante considerando que la contratación pública representa cerca del 15% del PIB de los países de la OCDE.
Además, varias agencias han implementado análisis de redes (network analysis), una técnica que permite mapear y examinar las relaciones entre distintos actores dentro de un mercado. Esta metodología no solo se utiliza para identificar patrones de colusión entre empresas que presentan ofertas a una licitación, sino también entre individuos, lo que permite detectar vínculos personales (como lazos familiares), que antes tenían más probabilidad de pasar desapercibidos.
Otras agencias han avanzado en el procesamiento automatizado de datos de licitaciones mediante web scraping, una técnica que consiste en extraer información directamente desde sitios web de manera sistemática y automatizada (para más información sobre este concepto ver nota Ceco: La “piratería” del data scraping y la restricción de ventas pasivas), como ocurre en Pakistán. Lituania, por su parte, desarrolló una herramienta de revisión documental basada en IA que puede identificar distintos tipos de coordinación —fijación de precios, reparto de mercado e intercambio de información— analizando palabras en contexto y detectando intenciones o incluso emociones asociadas al lenguaje (al respecto, ver columna de E. Ruiz-Tagle: “¿Positivo o negativo? Clasificación de texto en sede libre competencia”).
En su revisión sobre la integración de IA y machine learning en las actividades de las agencias de competencia, los expositores identificaron seis patrones principales, entre ellos destacan:
Un avance relevante en la integración de IA por parte de las agencias de competencia ha sido el desarrollo de herramientas orientadas directamente a la protección del consumidor, especialmente mediante el monitoreo de precios y condiciones de mercado (a través de web scraping).
Chile destaca nuevamente, a través de una herramienta que monitorea regularmente los precios (ya mencionada en la primera sección de esta nota). En Colombia, existen dos sistemas: uno enfocado en el seguimiento de precios en supermercados y otro que analiza los precios de vuelos domésticos (incluyendo variables como el equipaje de mano), para identificar alzas atípicas y eventuales prácticas problemáticas.
Por su parte, Pakistán ha desarrollado un panel regional para rastrear aumentos de precios por zona, junto a una herramienta que identifica ofertas de descuento falsas, es decir, situaciones en que se anuncia una rebaja cuando, en realidad, el precio se subió previamente para simular un ahorro inexistente.
Por último, en Taiwán, la autoridad creó una herramienta que analiza series temporales de precios, segmentando periodos y evaluando si los aumentos tienen justificación económica, especialmente en productos básicos como harina de trigo y soya. Así, cuando no se observa una explicación razonable para los aumentos, las agencias consideran iniciar una investigación.
En la etapa final de la presentación, Schrepel destacó algunos ejemplos especialmente innovadores y prometedores identificados en el informe. Entre ellos:
En sus palabras finales, Cavada (AFCA) enfatizó el valor de la cooperación internacional y el intercambio de aprendizajes en el desarrollo de inteligencia artificial. Compartió el proceso de transformación institucional de la agencia austríaca, que hoy destina cerca de un tercio de su presupuesto a tecnología y capacitación, y cuenta con un equipo de data science en expansión. Austria prioriza el desarrollo de herramientas propias para el screening de carteles y modelos de lenguaje, considerando la digitalización como una oportunidad estratégica para fortalecer el enforcement.
Enlaces relacionados: