Newsletter
Suscríbete a nuestro Newsletter y entérate de las últimas novedades.
El día 24 de agosto tuvo lugar un nuevo desayuno virtual de ForoCompetencia, en que el destacado académico de derecho de la competencia de la Universidad de Oxford, Ariel Ezrachi, abordó la relación entre la inteligencia artificial (IA), el enforcement del derecho de la competencia, el poder de mercado, la colusión y la innovación.
Los algoritmos ofrecen una capacidad de análisis que excede largamente a la de los seres humanos. En efecto, si bien estos son primeramente diseñados por programadores (seres humanos), luego se involucran en distintos niveles de complejidad, adquiriendo la capacidad de perfeccionarse a sí mismos en cada movimiento. En este sentido, el concepto de “aprendizaje automático” (machine learning) implica que el algoritmo realiza este perfeccionamiento de forma autónoma. Ahora bien, ¿cómo esto se relaciona con el derecho de la competencia? Para el expositor, existen dos puntos de vista, uno positivo y otro negativo (ver nota CeCo: Competencia Algorítmica).
Por el lado positivo, Ezrachi comenta que actualmente se observa una inversión masiva en tecnologías, generándose un mercado sumamente competitivo. Incluso quienes no tienen la capacidad de desarrollar IA por sí mismos, ahora tendrían la oportunidad de utilizar softwares de terceros (lo que reduciría las barreras de entrada).
En contraste, el punto de vista negativo (que reflejaría la opinión actual de algunas agencias de competencia y académicos) surge de la relación entre el poder de mercado y las economías de escala impulsadas por los datos (data-driven). En este sentido, de acuerdo con Ezrachi, las empresas que resultarán más favorecidas en esta industria son las que ya cuentan con un gran volumen de datos (p. ej., plataformas digitales), las que podrán aprovecharlo para mejorar aún más sus modelos de IA (reforzando así su poder de mercado).
Además, Ezrachi señaló que, debido a la presencia de modelos de conglomerados e integración vertical continua, existen menos oportunidades para los agentes disruptivos de ingresar al mercado, siendo, en definitiva, los gigantes tecnológicos los únicos quienes pueden avanzar hacia la siguiente etapa. A este respecto, al ser consultado por un panelista (Esteban Greco) sobre este punto, Ezrachi señaló que las menores barreras de entradas no son incompatibles con el afianzamiento del poder de mercado.
Por ejemplo, si bien una empresa pequeña puede desarrollar aplicaciones en el sistema operativo de Apple (iOS) utilizando IA, esta difícilmente se convertirá en un desafiante para Apple, pues está operando en un ecosistema controlado por Apple (es decir, por la empresa más grande).
Por otro lado, Ezrachi mencionó que cuando una “Tech Baron” (etiqueta con la que Ezrachi denomina a ciertas gigantes tecnológicas) tiene modelos de IA más desarrollados que sus competidores, gozará de una mejor visión de la dinámica del mercado. Esto le permite predecir mejor la dirección de los mercados, lo que lo convierte, en definitiva, en un mejor competidor. Esta ventaja “predictiva” puede tener un gran impacto en el análisis de fusiones. Si bien las operaciones de concentración de Facebook, WhatsApp e Instagram parecieran no haber sido la mejor decisión en su momento, de acuerdo a Ezrachi, sus efectos serían mucho menores en comparación a los que podrían ocurrir si se combinan las capacidades analíticas de operadores de IA.
Para el expositor, la comprensión que tenemos de los efectos que tendrá la IA es aún limitada. De esta manera, surgen preguntas en torno a la necesidad de intervención por parte de la autoridad y los costos de error (es decir, los costos de tomar decisiones equivocadas). Para Ezrachi, el enfoque clásico de Chicago confiaría en la capacidad del mercado para autorregularse, optando por abstenerse de intervenir (pues los costos de la sobre-intervención superarían a los de la auto-regulación).
Por otro lado, si entendemos que los mercados no se autocorrigen fácilmente y que la “mano invisible” no necesariamente refleja la verdadera dinámica de los mercados (que en su mayoría están controlados por los grandes actores), entonces el enfoque más adecuado podría ser el de asumir el costo de error y sobre-intervenir (ver nota CeCo: Responsables del declive en la aplicación de la ley de competencia de EE.UU.: ¿Escuela de Chicago o grandes empresas?).
En este sentido, Ezrachi advierte que en el pasado se ha sub-intervenido y que ello ha llevado a la dinámica actual de los mercados (dominados por las Big Tech). Así, el expositor se pregunta: ¿cuál sería el contrafactual (es decir, haber sobre-intervenido)? Para Ezrachi se trata de una pregunta abierta, pero que podría definir el enfoque a seguir en el futuro (ver nota CeCo: ForoCompetencia: Efectos del movimiento neobrandeisiano en EE.UU. y Latinoamérica).
Para el expositor, el derecho de la competencia, pese a tratarse de una herramienta extremadamente flexible y útil, ha demostrado no ser efectivo en la era digital; basta solo con observar los actuales niveles de concentración. La naturaleza reactiva del enforcement ha llevado a muchos a creer que la intervención caso a caso no es suficiente, optando, en cambio, por un enfoque regulatorio (ver nota CeCo: El mapa para entender la DMA).
En este contexto, Ezrachi ha escrito anteriormente que la libre competencia ha llegado a niveles similares a los de un dogma religioso. Así, ha sugerido que la competencia es como la medicina: cuando vas al médico, él te dice cuánto debes tomar del medicamento, y que si tomas más, te hará daño, al igual que la “sobredosis de competencia” (ver nota CeCo: Ezrachi y Stucke: Shot de adrenalina para una sobredosis de competencia). Un ejemplo de esto fue el caso HorseGate.
Para Ezrachi, la caja de herramientas con la que contamos es esencialmente reactiva, y lo cierto es que la alta tecnología opera con una rapidez mayor al derecho de la competencia (y aun mayor respecto de la regulación), por lo que, definitivamente, no estamos a la vanguardia. Entonces, ¿quién debería controlar el futuro? ¿las agencias de competencia, los reguladores, las empresas, la “mano invisible”? De acuerdo con Ezrachi, en este momento sería necesaria una mayor intervención.
La capacidad de recopilar y analizar inmensas cantidades de datos, e identificar patrones, podría posibilitar la automatización de carteles extremadamente complejos de detectar. Al respecto, la CMA de Reino Unido, la Autorité de la Concurrence francesa y la Bundeskartellamt alemana ya han publicado estudios sobre los peligros competitivos de los algoritmos, particularmente en materia de carteles (para profundizar, ver nota CeCo: Algoritmos y competencia”: autoridades de Alemania y Francia lanzan nuevo estudio).
El expositor también señaló que la IA puede permitir a las empresas deshacerse de la incertidumbre en la toma de decisiones. En efecto, el análisis de las herramientas de IA a las reacciones racionales a las características del mercado permitiría a las empresas alcanzar -con mayor facilidad- una dinámica de paralelismo consciente, que implicaría que los operadores económicos no compitan en su máxima capacidad, disminuyendo, en definitiva, el excedente del consumidor (ver nota CeCo: Inteligencia Artificial en Competencia: ¿Herramienta o Riesgo?).
Adicionalmente, Ezrachi señaló que resulta sumamente interesante replantear las estructuras de colusión hub and spoke. Gran parte de los oferentes contratan a terceros proveedores de algoritmos que ofrecen el servicio de análisis de datos y optimización de negocios para aumentar las ventas. Sin embargo, cuando el mismo algoritmo es utilizado por varios operadores de un mismo mercado, aquello podría generar una alineación preocupante (ver nota CeCo «Ezrachi y Stucke: Colusión tácita algorítmica en mercados secundarios«). Un caso conocido de esta situación fue el de Hoteles en Las Vegas (ver nota CeCo: Algoritmos y colusión: El nuevo caso de los Hoteles en Las Vegas).
Así, el análisis de estructuras hub and spoke se complejiza en aquellos mercados en que existen múltiples oferentes, pero que subcontratan la toma de decisiones a un tercero, de modo que, en realidad, aquellos oferentes no participan en la dinámica de precios. Por ejemplo, podemos tener un “mercado primario” en que participan 20.000 oferentes y 4 proveedores de algoritmos, en que la alineación ya no se debe producir entre 20.000, sino solo entre aquellos 4.
Existe la suposición de que si una empresa invirtió dinero, aquello equivale a innovación. Sin embargo, para Ezrachi es esencial dividir entre innovación “progresiva” (sustaining) e innovación “disruptiva” (disruptive). Esto pues, de acuerdo con el expositor, en la actualidad la mayor parte de la innovación sería de carácter progresiva y proveniente del modelo de negocios de las Tech Barons. Esta dinámica de innovación impediría el desarrollo de innovaciones disruptivas y reduciría el bienestar general, al privar a los consumidores de nuevos productos. Por ello Ezrachi le denomina “Innovación Tóxica” (ver nota CeCo: Innovación Tóxica: El reciente análisis de Ezrachi y Stucke sobre las Big Tech). Más aún, el expositor sugiere que gran parte de lo que parece disruptivo, se alinea a las cadenas de valor de los ecosistemas controlados por las Tech Barons, y sirve a los modelos de negocios establecidos.
A modo de conclusión, Ezrachi sugiere que en la actualidad existe un número creciente de mercados que obedecen a una realidad totalmente distinta de las que estamos acostumbrados: una realidad en que la mano invisible fue apartada por una “mano digital”.