CeCo | IA y enforcement: desafíos y usos proyectados al 2030
Newsletter

https://centrocompetencia.com/wp-content/themes/Ceco

Del presente al 2030: ¿cómo la IA está transformando el enforcement? (Stanford Computational Antitrust)

20.05.2025
CeCo Chile
8 minutos
Claves
  • El 8 de abril de 2025 se llevó a cabo la cuarta conferencia anual del programa Computational Antitrust de Stanford University.
  • El encuentro reunió a académicos, autoridades de competencia y expertos tecnológicos para discutir sobre las herramientas computacionales actualmente en uso y los desafíos normativos que plantea su expansión futura.
  • En el primer panel, se destacaron herramientas como technology-assisted review (TAR), predictive coding, algoritmos de data mining para detectar bid rigging y sistemas de IA aplicados al análisis automatizado de fusiones.
  • En el segundo panel, el foco estuvo en escenarios futuros. Se discutió cómo la IA podría automatizar funciones de cumplimiento, desafiar conceptos jurídicos tradicionales y facilitar formas de colusión algorítmica.
Keys
  • On April 8, 2025, the Stanford University’s Computational Antitrust program held its fourth annual conference.
  • The event brought together academics, competition authorities, and technology experts to discuss the computational tools currently in use and the regulatory challenges posed by their future expansion.
  • The first panel highlighted tools such as technology-assisted review (TAR), predictive coding, data mining algorithms to detect bid rigging, and AI systems applied to the automated analysis of mergers.
  • The second panel focused on future scenarios. Discussions centered on how IA could automate compliance functions, challenge traditional legal concepts, and facilitate forms of algorithmic collusion.

El pasado 8 de abril, se realizó la cuarta edición del Computational Antitrust Global Summit, organizado por el programa de la Universidad de Stanford. El proyecto cuenta hoy con la colaboración de más de 75 agencias de competencia a nivel mundial, y se ha consolidado como una de las principales instancias de discusión sobre el uso de herramientas computacionales en el derecho de la competencia (para una explicación de este proyecto y el “Antitrust 3.0”, ver artículo de E. Ruiz-Tagle).

El evento reunió a representantes de agencias, académicos, desarrolladores tecnológicos y profesionales del ámbito legal. La jornada se estructuró en dos paneles: el primero, centrado en las herramientas computacionales actualmente disponibles y utilizadas; y el segundo, enfocado en escenarios futuros, como la posibilidad de una colusión algorítmica.

Panel 1: Acceso, integración tecnológica y límites legales en el uso actual de IA en competencia

El primer panel, titulado “Computational Antitrust in 2025”, tuvo la participación de tres expositores con perfiles institucionales distintos: Paola Blizzard, abogada de la Fiscalía General del Estado de California; John LaBarre, representante de Harvey AI  (empresa de tecnología legal que desarrolla modelos de IA aplicados a tareas jurídicas); y Alexandre Cordeiro, presidente del Consejo Administrativo de Defensa Económica (CADE) de Brasil.

A partir de estas perspectivas -pública, privada y regulatoria- el panel abordó tres grandes ejes: (1) las dificultades para acceder, estandarizar y analizar datos relevantes para investigaciones; (2) la importancia de integrar perfiles técnicos y legales en el desarrollo de herramientas de IA; y (3) las distintas estrategias institucionales para incorporar capacidades computacionales.

Acceso a datos y métodos de análisis en investigaciones 

Desde la experiencia del sistema estadounidense, Paola Blizzard explicó que una de las aplicaciones más consolidadas es el uso de herramientas de revisión asistida por tecnología (TAR, por sus siglas en inglés), en particular mediante técnicas de predictive coding,  (para ejemplos de este uso, ver nota CeCo: “Tecnología, IA y competencia: algunas reflexiones e ideas de aplicación práctica”). Estas herramientas permiten priorizar automáticamente los documentos más relevantes dentro de grandes volúmenes de información. Por ejemplo, ante una base de datos que contenga millones de correos electrónicos, el sistema puede identificar y ordenar aquellos que tengan mayor probabilidad de ser útiles para la investigación (ver columna de E. Ruiz-Tagle: “‘Orden’ y ‘Estabilidad’: ¿Positivo o negativo? Clasificación de texto en sede libre competencia”).

Blizzard señaló que un siguiente nivel de sofisticación son las herramientas de data mining aplicadas a datos de compras públicas. Estas herramientas están principalmente diseñadas para detectar posibles casos de bid rigging en procesos de licitación (ver nota CeCo sobre modelos de detección de bid-rigging). Sin embargo, advirtió que este tipo de soluciones no se utilizan actualmente en California, dado que diversas agencias independientes de compras operan con bases de datos descoordinadas.

En contraste, Alexandre Cordeiro explicó que desde 1997, la agencia brasileña tiene acceso a la totalidad de las licitaciones públicas realizadas en el país, lo que ha permitido desarrollar herramientas analíticas aplicadas especialmente a casos de bid rigging.

Más aún, en 2013, CADE implementó un algoritmo basado en modelos matemáticos avanzados que permite analizar la relación entre precios y márgenes de ganancia en licitaciones públicas y generar alertas sobre posibles patrones de colusión. Según Cordeiro, muchas de las investigaciones actualmente en curso en Brasil se han originado gracias a este sistema, que ha permitido a la agencia adoptar un enfoque más proactivo y menos dependiente de los programas de delación compensada.

Integración entre expertos tecnológicos y el mundo legal

Con respecto a la integración del mundo del derecho a la tecnología, John LaBarre explicó que en Harvey AI los abogados no solo forman parte del equipo legal, sino que están integrados en áreas como desarrollo de producto, ventas y validación técnica. Estos profesionales participan activamente en el entrenamiento de los modelos y en la revisión de sus outputs, para asegurar que los resultados generados sean útiles y pertinentes en un contexto jurídico (en una línea similar, ver artículo sobre explicabilidad y modelos predictivos en libre competencia, de Malca et al).

Por su parte, Alexandre Cordeiro reconoció que, si bien CADE cuenta con una planta de 230 personas —de las cuales 30 son economistas—, el equipo técnico especializado en tecnología es aún reducido, con solo cinco profesionales. Sin embargo, destacó que CADE puede contratar consultores externos para proyectos específicos y que están comprometidos con incorporar perfiles técnicos de forma permanente.

Diseño institucional y límites legales al uso de tecnología en el enforcement

Durante el panel, Paola Blizzard abordó cómo el diseño institucional del sistema estadounidense condiciona la forma en que las herramientas computacionales pueden ser utilizadas en el ámbito de la libre competencia. A diferencia de otras jurisdicciones -como Europa o América Latina-, donde las agencias de competencia pueden investigar, analizar los datos y emitir decisiones, en Estados Unidos las agencias tienen un rol exclusivamente persecutor. Esto significa que los casos deben ser llevados ante tribunales, donde toda evidencia debe cumplir con los estándares procesales exigidos por el sistema judicial.

En este contexto, Blizzard explicó que el uso de evidencia computacional está sujeto al cumplimiento del test Daubert (para más información de este test, ver nota CeCo: Rol y exigencias de la evidencia económica en juicios de competencia: estándar Daubert y el “hot tubbing”), un estándar que exige que las pruebas sean replicables, revisadas por pares y suficientemente aceptadas por la comunidad científica. Indicó que, en muchos casos, los análisis generados con herramientas computacionales no cumplen con el test Daubert, o bien,  se enfrentan a metodologías tradicionales que resultan más persuasivas para el tribunal. Esta dinámica, tiende a favorecer el uso de enfoques más clásicos ante el tribunal, limitando la incorporación de herramientas innovadoras en los litigios.

Panel 2: escenarios futuros y colusión algorítmica

El segundo panel del evento estuvo dedicado a explorar cómo podría evolucionar el enforcement de la libre competencia hacia el año 2030, preguntándose acerca de qué herramientas podrían volverse técnicamente posibles, legalmente admisibles e institucionalmente aceptadas. En el panel participaron Susan Athey, ex economista jefe de la División Antitrust del Departamento de Justicia (DOJ) durante la administración Biden; Harry Borovick, Director Jurídico de Luminance; Florence Guillaume, profesora de Derecho en la Universidad de Neuchâtel; Maria Manuelle Palacio Villarreal, candidata a doctorado (JSD) en la Universidad de Stanford; y Sandy Pentland, académico del MIT.

Entre los temas abordados se discutieron las implicancias del acceso irrestricto a datos sensibles por parte de las agencias, la posible automatización del cumplimiento normativo mediante agentes de IA, la necesidad de revisar conceptos jurídicos tradicionales, y los riesgos asociados a la colusión algorítmica en entornos altamente digitalizados.

Acceso irrestricto a datos y nuevos límites de la privacidad

Para comenzar, Guillaume, exploró un escenario extremo: que las agencias de competencia pudieran acceder a todos los datos relevantes para una investigación, incluidos secretos comerciales, comunicaciones internas, estrategias corporativas e incluso información sobre ejecutivos y socios externos. Si bien reconoció que esto sería desproporcionado bajo los marcos legales actuales, planteó que imaginar este tipo de escenario permite visualizar hasta qué punto la eficacia del computational antitrust depende del volumen, la calidad y la granularidad de los datos disponibles.

Para mitigar los riesgos de un acceso masivo a datos sensibles, Guillaume propuso el uso de tecnologías de preservación de la privacidad, conocidas como Privacy-Enhancing Technologies (PETs). Según la definición de la OCDE, estas son soluciones digitales que permiten recolectar, procesar, analizar y compartir información protegiendo al mismo tiempo la confidencialidad y la privacidad de los datos (OCDE, 2023). En línea con lo anterior, sostuvo que el avance del computational antitrust requiere un enfoque interdisciplinario —que integre derecho, ingeniería y diseño institucional—, capaz de establecer marcos que permitan el uso de información crítica bajo condiciones de resguardo. Es más, propuso incluso elevar la protección de los datos personales al rango de derecho fundamental, bajo el concepto de integridad digital, inspirado en la idea de integridad física.

Más allá del futuro: lo que la IA ya puede resolver

Baradez, por otro lado, proyectó un uso más avanzado de la IA en el cumplimiento normativo empresarial. Planteó que agentes automatizados podrían integrarse a los flujos internos de las empresas para detectar posibles riesgos anticompetitivos de forma temprana (así, las empresas se podrían monitorear a ellas mismas). Por ejemplo, se podrían adoptar sistemas de IA que advierten sobre la concentración de contratos en pocos agentes, o comportamientos comerciales repetidos que podrían generar alertas regulatorias.

Desde una perspectiva institucional, Susan Athey cuestionó el carácter excesivamente reactivo del enforcement actual (similar a lo planteado por Blizzard en el primer panel), tanto en libre competencia como en protección al consumidor. Señaló que, frente a fraudes financieros, estafas, prescripciones fraudulentas o abusos sistemáticos, el Estado tiende a actuar sólo cuando el daño ya está hecho. En contraste, sostuvo que la tecnología permitiría automatizar funciones de auditoría y monitoreo, habilitando la detección temprana de patrones sospechosos y reduciendo así el margen de acción de los infractores.

Sin embargo, advirtió que la implementación de estas herramientas enfrenta una tensión política creciente: mientras más personas demandan protección frente a fraudes y abusos, también aumenta el rechazo social hacia el poder de vigilancia del Estado.

Colusión algorítmica y límites del enfoque actual del enforcement

Varios panelistas coincidieron en que uno de los desafíos más complejos que enfrentará el enforcement de la libre competencia en los próximos años será la colusión facilitada o ejecutada por algoritmos (para profundizar en este tema, ver nota CeCo: “OCDE: Competencia Algorítmica” y artículo de Ringeling et al “Colusión de IA: ¿Deberíamos estar preocupados?”).

Florence Guillaume propuso el concepto de colusión algorítmica de prueba, para referirse a situaciones en que agentes de IA podrían coordinarse entre sí sin intervención humana directa. A su juicio, aunque estos escenarios no estén contemplados hoy en los marcos normativos, no son incompatibles con la lógica jurídica existente. De hecho, señaló que, si los grandes modelos de lenguaje pueden comunicarse entre sí y generar comportamientos paralelos, podría considerarse que existe una forma de coordinación jurídicamente relevante.

Por su parte, Athey, desde su experiencia en el DoJ, identificó la colusión algorítmica como uno de los principales desafíos que enfrentó durante su gestión. Esto pues, reconoció que el marco normativo actual no está bien preparado para abordar este tipo de situaciones, y que aún hay investigaciones en curso relacionadas con algoritmos de .

Athey advirtió sobre los riesgos que presentan estos sistemas, incluso cuando no están explícitamente diseñados para coludir. Explicó que en la primera generación de casos investigados era común encontrar rastros claros sobre cómo y por qué las empresas utilizaban estos algoritmos. Sin embargo, anticipó que versiones más sofisticadas —como las denominadas “D2” o “D3”— podrían sostener precios altos de forma persistente sin infringir directamente la ley. Según su hipótesis, si los algoritmos reaccionan de manera instantánea a los cambios de precio de sus competidores, se eliminaría el incentivo clásico a competir bajando precios, ya que el “beneficio por anticiparse” desaparece. Frente a esta situación, propuso que sería necesario explorar enfoques regulatorios menos centrados en los insumos (inputs) y más orientados a los resultados (outcomes), evaluando los efectos reales de determinadas prácticas algorítmicas.

También te puede interesar:

Federico Amtmann