Newsletter
Suscríbete a nuestro Newsletter y entérate de las últimas novedades.
La llegada del Big Data y los modelos de Inteligencia Artificial (AI) han influenciado fuertemente los modelos de negocios de una gran variedad de industrias, incidiendo a su vez en la forma en que las empresas toman sus decisiones. Dado el creciente valor de la información, hoy en día es casi inconcebible pensar en modelos de negocios que no se relacionen con alguna de las múltiples formas de usar, almacenar, analizar o distribuir datos.
Las técnicas de datos e inteligencia artificial se pueden usar para crear una variedad de diferentes aplicaciones en cualquier sector, incluido el reconocimiento de voz de Siri o las técnicas de inteligencia artificial para sugerir películas que nos gusten en Netflix.
Recientemente, académicos de la libre competencia han investigado la capacidad de la inteligencia artificial para generar comportamientos anticompetitivos, como lo son la colusión algorítmica y la discriminación de precios (Gautier et al., 2019; ver también Nota CeCo “¿Cómo los algoritmos pueden dañar la competencia?”). Con todo, una forma diferente de acercarse a este tópico es preguntarse si acaso las agencias de libre competencia se beneficiarían de explotar las herramientas de inteligencia artificial para abordar los desafíos de enforcement y persecución de conductas anticompetitivas.
El artículo “¿Can IA Replace the FTC?” de Giovanna Massarotto, investigadora asociada del Centro de Tecnologías Blockchain de University College London (UCL CBT), y Ashwin Ittoo, profesor asociado de la Universidad de Liege, tiene como objetivo abordar esta cuestión mediante la creación y testeo de técnicas de Machine Learning aplicadas al campo de la libre competencia. En concreto, el estudio investiga cómo se pueden utilizar los algoritmos para descubrir automáticamente información sobre decisiones antimonopolio pasadas y extraer patrones recurrentes subyacentes a estas decisiones. La principal innovación de la investigación es la intersección entre la inteligencia artificial (IA) y la libre competencia.
La Inteligencia Artificial (IA) generalmente se refiere al diseño y desarrollo de máquinas dotadas de habilidades cognitivas, similares a las de los humanos, donde se suele distinguir entre dos tipos: la inteligencia artificial fuerte (AGI) y la inteligencia artificial débil. Mientras que la AGI tiene como objetivo permitir que las máquinas realicen cualquier tarea dentro del ámbito de las habilidades humanas, la IA débil, que es hoy la forma predominante de IA, permite a las máquinas hacer muy bien una tarea específica. Ejemplos típicos son la traducción automática, la detección de objetos o personas en fotos y reconocimiento de voz en asistentes digitales personales.
Hoy en día, el Machine Learning es el principal método de inteligencia artificial que se utiliza para ejecutar desde el reconocimiento de voz -como Alexa o Siri- hasta los vehículos autónomos. Los algoritmos ML permiten que las máquinas aprendan a realizar una tarea a través de la experiencia. En otras palabras, se recolecta una gran cantidad de datos para entrenar algoritmos a que logren detectar patrones y construir modelos para hacer predicciones.
Hay dos enfoques principales que las máquinas pueden adoptar para aprender: el aprendizaje supervisado (SL) y el aprendizaje no supervisado (UL). En el aprendizaje supervisado se presenta un algoritmo con grandes volúmenes de datos, clasificadas en variables (por ejemplo, edad, nivel de educación, salario) y una etiqueta, que corresponde a la información de interés (por ejemplo, nivel de riesgo crediticio). El algoritmo identificará las relaciones entre las variables (conocidas como variables independientes) y la información de interés (conocida como variable dependiente). Por ejemplo, el algoritmo puede aprender que los clientes de cierta edad y salario tienden a tener un nivel de riesgo crediticio alto o bajo. Una vez que se ha entrenado el algoritmo, es posible hacer predicciones sobre nuevos casos invisibles.
Los algoritmos de aprendizaje no supervisado (UL) generalmente no se preocupan por aprender a realizar tareas específicas. Como tal, no hay una fase de entrenamiento en la que los algoritmos aprendan de los datos existentes ni una fase de exploración. En otras palabras, los algoritmos UL operan sin ningún tipo de supervisión o señal externa. El objetivo principal de UL es descubrir estructuras latentes o extraer reglas o asociaciones de los datos, sin ninguna fase previa de formación o exploración.
La gran pregunta que los autores intentan responder es: ¿Podría construirse un algoritmo que sugiera a la FTC una posible conducta anticompetitiva y remedios para hacer cumplir? Para esto, se proponen usar técnicas de Machine Learning que detecten patrones subyacentes que caractericen los casos antimonopolio y utilizar estos patrones para generar grupos de casos considerados similares. Al mismo tiempo, se decide automatizar el proceso al máximo, porque les interesa investigar si los algoritmos ML son capaces de inferir automáticamente -con la menor intervención humana posible- similitudes entre casos antimonopolio.
El estudio se centra específicamente en la acción de aplicación de la ley antimonopolio de la FTC en virtud de la Sección 5 de la Ley de la FTC, que le otorga al organismo amplia discrecionalidad para controlar y regular los mercados. La Sección 5 se aplica principalmente a través de consent decrees, especie de avenimientos definidos entre la Comisión y la empresa sujeta al escrutinio antimonopolio.
Los autores utilizan datos de 72 casos de competencia ocurridos en Estados Unidos relacionados con procedimientos de la Ley de la FTC resueltos mediante consent decrees entre los años 2005 y 2019. De cada procedimiento analizado se extrajeron datos sobre: el año; el nombre del procedimiento (que generalmente identifica a las partes involucradas); la industria afectada; la conducta anticompetitiva investigada y los remedios adoptados. Debido a que en todos los casos analizados hubo un máximo de cuatro conductas investigadas por caso, se consideró un mínimo de una a un máximo de cuatro conductas por caso.
El enfoque adoptado en el artículo se conoce como clústeres, que identifica estructuras latentes dentro de un conjunto de datos e implica, a grandes rasgos, estimar la similitud entre varios puntos de datos y agrupar puntos de datos similares en grupos. En esencia, la premisa fundamental de los algoritmos de clusterización o agrupación es maximizar la similitud intra-grupos y minimizar la similitud entre-grupos. Lo que hace el algoritmo es dividir los datos en K grupos (clústeres) de modo que cada grupo contiene distancias que son muy similares entre sí.
La agrupación en clústeres se utiliza ampliamente en marketing, ya que permite identificar grupos de consumidores similares a los que se les puede cobrar precios similares o recomendar productos similares.
Existen varios algoritmos de agrupamiento. Debido a que es extremadamente difícil determinar qué algoritmos darán el mejor rendimiento, es común experimentar con varios algoritmos y luego elegir el mejor. Así, en esta investigación se optó por investigar tres algoritmos de agrupación en clústeres particionales: K-Means, K-Means bisectantes y K-Modes. La experimentación reveló que el algoritmo de mejor rendimiento es el K-Means.
Habiendo adoptado diferentes técnicas de ML, el algoritmo de mejor rendimiento detectó cuatro clústeres. Se testearon estos cuatro grupos y sus variables para identificar aquellos que eran más informativos.
El resultado más interesante del clúster 1 está relacionado con la industria. Todos los casos relacionados con la industria de la computación y los datos se han detectado en el grupo 1. Luego, 14 casos de 20 se refieren a la industria farmacéutica y de la salud.
La conducta más frecuente en este clúster es la fijación de precios y la conducta exclusoria. El remedio que aparece con mayor frecuencia en este grupo es la limitación del contrato y “obligaciones de cumplimiento”.
En resumen, el algoritmo parece sugerir que los casos en la industria de la informática y datos parecen suscitar preocupaciones antimonopolio similares a las presentes en la industria de la salud.
Los veinte casos identificados en el grupo 2 ocurrieron en el mismo período de tiempo, de 2005 a 2013. Todos los casos relacionados con la industria inmobiliaria, con una excepción, aparecen en el grupo 2. Luego, este grupo se caracteriza por el número de conductas investigadas, ya que en la mayoría de los casos la FTC examinó tres o más prácticas anticompetitivas.
El algoritmo revela que la FTC, para casos en los que se investigan más de dos prácticas anticompetitivas, suele adoptar “obligaciones de cumplimiento” como remedio por defecto. El 70% de los casos se refieren a la conspiración, en consecuencia, la limitación en el intercambio de información aparece como uno de los remedios más comunes revelados en el clúster 2.
En el tercer grupo, la máquina identificó 18 casos, 15 de ellos referidos a procesos en los que se investigó solo una conducta anticompetitiva. Se detectaron varias conductas del tipo «acuerdo de no competir» e «invitación a la coludirse».
Al observar estos datos, podemos argumentar que el algoritmo aprendió que cuando la FTC investiga simplemente una práctica anticompetitiva o dos, la FTC suele no imponer remedios o elige optar entre obligación de cumplimiento, implementación de un programa de cumplimiento o limitación en el intercambio de información.
Este último grupo detectado por el algoritmo es probablemente el más interesante desde la perspectiva de la política de competencia. Ocho casos se refieren a la industria de la salud y farmacéutica. Nueve casos detectados en este grupo involucran fijaciones de precios, cuatro casos involucran conducta exclusoria. Los remedios más frecuentes en este grupo son obligaciones de cumplimiento y limitación en el intercambio de información.
Lo interesante es que el algoritmo identifica la fijación de precios como la práctica anticompetitiva más común en la industria de la salud y farmacéutica, donde los remedios más comunes vienen a ser las obligaciones de cumplimiento y limitación en el intercambio de información, lo que tiene pleno sentido para los casos de acuerdos de fijación de precios.
En síntesis, es posible enseñar libre competencia a un algoritmo, ya que tanto los clústeres como las variables del algoritmo parecen tener racionalidad dentro de la lógica del derecho de competencia. La IA puede servir como una herramienta útil para ayudar a las agencias de competencia a hacer cumplir la ley antimonopolio en la era de los macrodatos. Y si bien los autores reconocen que la inteligencia artificial no reemplaza a la FTC, consideran que el proyecto puede ayudar a la comunidad dedicada al derecho de competencia a comprender cómo explotar diferentes técnicas de IA en diferentes jurisdicciones para hacer su trabajo más eficiente en los acelerados mercados tecnológicos del mundo presente.
Artículo Giovanna & Ittoo – ¿Can IA Replace the FTC?