Newsletter
Suscríbete a nuestro Newsletter y entérate de las últimas novedades.
Desde hace tiempo, los humanos empleamos algoritmos informáticos –entendidos como conjuntos de instrucciones o pasos definidos, ordenados y limitados con el propósito de lograr un objetivo– para realizar una amplia variedad de tareas. Con el incremento del poder de procesamiento de las computadoras y la disponibilidad de datos para alimentar los modelos de inteligencia artificial (IA), como sociedad hemos evolucionado y potenciado su uso para facilitarnos actividades que antes hacíamos manualmente, incluso para realizar labores que son prácticamente inalcanzables para nosotros, ya sea en términos de capacidad, comprensión, velocidad o costo. Si bien el cambio tecnológico exponencial en materia de IA observado en estos últimos años nos trae amplias expectativas de bienestar y desarrollo, también está la otra cara de la moneda. A medida que la tecnología avanza y las máquinas adquieren la capacidad de aprender por sí mismas, surgen preocupaciones en torno a los riesgos asociados a su uso, como la seguridad, los derechos de autor, la privacidad, los derechos humanos y la dinámica de los mercados.
«Conforme los gobiernos tienen interés de regular los modelos de IA para que sean confiables, transparentes, responsables y seguros, una opción en materia de competencia económica podría ser asociar la responsabilidad objetiva de los algoritmos a las empresas que lo operan (y que obtienen un beneficio de ello), para que sean responsables de los daños que ocasionen aun cuando no exista dolo«.
En este sentido, vemos que algunos gobiernos exploran ajustes y cambios normativos para regular la IA. Si bien dichas aproximaciones regulatorias pueden variar entre jurisdicciones, el objetivo común de los gobiernos es asegurar que los modelos de IA sean confiables, transparentes, responsables y seguros. Es decir, que mediante procesos y reglas específicas generen resultados apropiados para los fines previstos, imparciales y que cumplan con las leyes existentes –algunos denominan a este esfuerzo como “regulación ética de la inteligencia artificial”.
Por ejemplo, desde la perspectiva de la protección al consumidor, surgen inquietudes acerca de la violación de la privacidad, la automatización de la discriminación y la potenciación de prácticas engañosas. Muestra de ello es la denuncia de la Federal Trade Commission (FTC, por sus siglas en inglés) contra Amazon por utilizar datos personales (como grabaciones recopiladas por la popular asistente de voz “Alexa” y videos recopilados por las cámaras de seguridad domésticas conectadas a Internet de Ring) para entrenar a sus algoritmos, lo que implica una violación a la privacidad de sus clientes (ver FTC, 2023). Asimismo, la sanción que en diciembre de 2023 esta misma autoridad impuso a la cadena de farmacias Rite Aid respecto del sesgo que mostraba su algoritmo de reconocimiento facial, utilizado para identificar individuos que previamente habían sido considerados partícipes en actividades de hurto en sus tiendas, al discriminar a personas de origen afroamericano, asiático y latino, así como a mujeres (O’Neil y Hutchinson, 2024).
En cuanto al funcionamiento de los mercados desde el enfoque de la competencia, las preocupaciones principales incluyen, por un lado, la mayor concentración de poder de mercado por parte de las grandes empresas tecnológicas (Big Tech) y, por otro, el riesgo de comportamientos colusorios para «inflar” indebida e injustamente los precios que pagan los consumidores.
En el primer caso, estas gigantes, al estar integradas verticalmente, controlan insumos importantes para desarrollar e implementar de manera efectiva herramientas de IA, como son los datos necesarios para entrenar a los modelos y el cómputo en la nube. También hemos visto acuerdos de colaboración entre estas grandes tecnológicas y desarrolladores de modelos innovadores de IA (por ejemplo, el que permite que OpenAI entrene sus algoritmos en la nube de Microsoft). Estas dos circunstancias podrían afianzar sus posiciones en el mercado de IA y mercados relacionados. En respuesta, por ejemplo, la Comisión Europea lanzó una iniciativa para recibir comentarios de los participantes de los mundos virtuales y la IA sobre cómo la política de competencia puede ayudar a garantizar que estos nuevos mercados sigan siendo competitivos, a la vez de investigar si la inversión de Microsoft en OpenAI podría considerarse una concentración que hubiese necesitado la aprobación previa de esa autoridad de competencia antes de llevarse a cabo (Comisión Europea, 2024).
En el segundo caso, las herramientas de IA se pueden utilizar para facilitar comportamientos colusorios, ya que los algoritmos pueden servir tanto para monitorear precios y vigilar acuerdos anticompetitivos, como para fijar precios de manera automática y de forma ilegal (aunque, como explico abajo, en algunos supuestos la ilegalidad no es del todo clara).
Sobre el uso de algoritmos para el monitoreo y fijación de precios (algorithmic pricing) existen varios escenarios con diferentes consecuencias legales (ver nota CeCo: “OCDE: Competencia Algorítmica”). Aquí menciono tres de ellos:[1],[2]
Escenario 1: Utilización de un algoritmo como herramienta de vigilancia de los precios establecidos por la competencia. Se emplea un algoritmo complejo para monitorear los precios de los competidores, con el propósito de intervenir cuando estos se desvían de un acuerdo colusorio. Es decir, los miembros de un cartel recurren a algoritmos de IA para supervisar el cumplimiento del acuerdo y, en última instancia, sancionar a aquellos que se aparten del pacto establecido. En esencia, el algoritmo actúa como una hoja de cálculo avanzada, ya que no solo recopila información de precios, sino que la analiza y predice escenarios de acuerdo con su programación. En este caso, el algoritmo reduce la necesidad de comunicación entre los miembros del cartel, disminuyendo el riesgo de dejar evidencia del actuar ilegal. La conducta colusiva de precios ocurre de manera similar a la de un cartel tradicional, lo que varía –y hace más efectivo el cartel– es el mecanismo de monitoreo del pacto.
Otro ejemplo del uso de un algoritmo para el monitoreo de los precios de los competidores es el caso reciente de la demanda de la FTC contra Amazon por abuso de poder de mercado. Si bien no se trata de un caso de colusión, en la demanda se señala que la empresa de comercio electrónico utiliza algoritmos para vigilar los precios que los vendedores ofertan en su plataforma contra los que estos mismos cobran en otros espacios similares. Así, cuando Amazon identifica vendedores que ofrecen precios más bajos en otras plataformas tecnológicas, toma represalias en contra de ellos ajustando la visibilidad de sus productos en Amazon, relegándolos en las búsquedas.
En ambos casos, el uso del algoritmo –por sí mismo– no es ilegal desde la perspectiva de competencia, ya que no está prohibido utilizar herramientas tecnológicas para facilitar a la empresa a comprender y monitorear el comportamiento de los competidores.
Escenario 2: Utilización de un algoritmo por parte de varias competidores como vehículo de colusión, ya sea que utilicen el mismo algoritmo para fijar precios, o que utilicen un algoritmo suministrado por un tercero común para lograr resultados anticompetitivos. En estas circunstancias el algoritmo está diseñado para optimizar ganancias y procesar información de los competidores, permitiendo que todas las empresas que usen el mismo sistema fijen precios de colusión. Este tipo de conducta es ilegal y está sujeta a sanciones bajo las leyes de competencia. Aunque pueda parecer algo novedoso, en realidad es terreno andado en la comunidad de competencia.
Como ejemplo del primer supuesto (uso de un mismo algoritmo por parte de varios competidores), en un caso de 1992, el gobierno de Estados Unidos presentó un caso contra seis aerolíneas por el uso conjunto de un sistema de reservas en línea que no solo difundía información sobre tarifas al público, sino que también servía como plataforma para comunicaciones privadas sobre tarifas. La conducta no llegó a sancionarse como colusión porque las aerolíneas y la autoridad antimonopolios llegaron a un acuerdo. Como un ejemplo del segundo supuesto (uso de un algoritmo provisto por un tercero), en un caso reciente de noviembre de 2023, se presentó una demanda colectiva de acusación de fijación de precios algorítmica, contra los operadores de hoteles en el Strip de Las Vegas por presuntamente utilizar el mismo software de fijación de precios, suministrado por un proveedor externo y común (ver nota CeCo: “Algoritmos y Colusión: El Nuevo Caso de los Hoteles en Las Vegas”). La demanda se desechó por falta de elementos de convicción, aunque los denunciantes aún pueden presentar más pruebas.
A medida que un algoritmo se vuelve más sofisticado se facilita la comunicación entre competidores de maneras más difíciles de detectar para las agencias de competencia. En caso de inquietud, las autoridades de competencia, como parte de una investigación, podrían someter los algoritmos a revisión para asegurar que no contengan líneas de código preocupantes en su programación. Sin embargo, es importante considerar que, dependiendo del tipo de algoritmo, esa posibilidad de someterlo a revisión para determinar cómo “está pensando el algoritmo” puede no ser viable, como se puede apreciar en el siguiente escenario.
Escenario 3: Algoritmos de aprendizaje automático que implementan, por sí solos, sin que hayan sido programados expresamente para ello (sin intervención humana), esquemas de paralelismo en precios. Este tipo de algoritmos son modelos de aprendizaje que dependen principalmente de las bases de datos con los cuales están siendo entrenados, y en ese sentido un observador externo no puede hacer ingeniería inversa y reconocer cómo estos algoritmos llegan a ciertas conclusiones. Esta situación es especialmente compleja para las autoridades de competencia, pues el paralelismo de precios, aunque muy dañino, puede no encuadrar en un acto ilegal y, por lo tanto, punible bajo los marcos jurídicos actuales de competencia del mundo (ver nota CeCo: “Ezrachi y Stucke: Colusión Tácita Algorítmica”). En el caso mexicano, por ejemplo, lo actualmente previsto por la ley de competencia es que no hay colusión de precios si el acuerdo no es explícito y consciente, pues no hay voluntad entre las partes.
Con la posibilidad de un escenario como el tercero (algoritmos de aprendizaje automático), se evidencia la necesidad de actualizar los marcos legales de competencia para abordar los desafíos planteados por la inteligencia artificial. Conforme los gobiernos tienen interés de regular los modelos de IA para que sean confiables, transparentes, responsables y seguros, una opción en materia de competencia económica podría ser asociar la responsabilidad objetiva de los algoritmos a las empresas que lo operan (y que obtienen un beneficio de ello), para que sean responsables de los daños que ocasionen aun cuando no exista dolo. Discusiones en este sentido comienzan a darse en torno a si las empresas de redes sociales deberían de ser responsables por los contenidos que terceros publican en sus plataformas (Anu Bradford, 2023), así como si hacer o no a las empresas de software responsables por fallos de seguridad cibernética (Wall Street Journal, 2023).
[1] Estos escenarios están basados en aquellos descritos por Víctor Meyer y Francisco R. Téllez García en Prácticas Monopólicas Absolutas y Algoritmos en México, Derecho de la Competencia en Mexico. Nuevos paradigmas, Tirant le Blanch (2023). Para mayores detalles sobre el uso de algoritmos para la fijación de precios y sus potenciales implicaciones en materia de competencia económica, así como una reflexión para el contexto mexicano, ver dicho texto.
[2] Para profundizar más en el uso de los algoritmos para la fijación de precios en el contexto estadunidense ver Written Testimony of Bill Baer United States Senate Committee on the Judiciary Subcommittee on Competition Policy, Antitrust, and Consumer Rights Hearing on “The New Invisible Hand? The Impact of Algorithms on Competition and Consumer Rights, publicado en la página de Linkedln del autor, el 13 de diciembre de 2023.