Newsletter
Suscríbete a nuestro Newsletter y entérate de las últimas novedades.
https://centrocompetencia.com/wp-content/themes/Ceco



El uso y el desarrollo de herramientas de Inteligencia Artificial (IA) ha aumentado de forma exponencial en los últimos años. Con todo, ya en 1950 el matemático Alan Turing planteó la manera en la que debíamos medir la capacidad de una máquina, para que ésta exhibiera un comportamiento inteligente similar al de un ser humano.
En los últimos cinco años, numerosas autoridades de libre competencia han estudiado el fenómeno de los algoritmos y cómo estos pueden constituir instrumentos para cometer infracciones anticompetitivas. La aparición de algoritmos más complejos, que constituyen la base para los large language models (LLMs), son más sofisticados tecnológicamente. A modo de ejemplo, la empresa tecnológica Meta ha integrado un chatbot en todos sus servicios (Instagram, Facebook y WhatsApp) para facilitar la experiencia del usuario cuando interacciona con el contenido disponible en estas aplicaciones. Este chatbot depende de su LLM, Llama, a la que la empresa ha entrenado y desarrollado.
La integración de LLMs en los principales servicios digitales a los que acceden millones de usuarios al día (por ejemplo, servicios de redes sociales, de búsqueda, de mensajería) plantea claros desafíos en relación con la forma en la que las autoridades de libre competencia pueden interpretar los daños anticompetitivos que se pueden derivar del uso de dichos servicios. Algunas autoridades de competencia están tratando de superar estos retos y ya han emprendido acciones para perseguir potenciales daños anticompetitivos derivados del entrenamiento de estos LLMs.
«En efecto, la reciente intervención de la Comisión Europea subraya que el entrenamiento de modelos de lenguaje no es un proceso neutral, sino una actividad con potencial explotativo. Al equiparar la falta de consentimiento y compensación por el uso de datos con infracciones anticompetitivas, se establece un precedente histórico: el control de los datos de entrenamiento será, a partir de ahora, tan crucial para la libre competencia como lo fue en su día el control de las infraestructuras físicas».
El desarrollo y el entrenamiento de este tipo de tecnologías (esto es, que dependen de sistemas y modelos de IA) difiere de las características económicas que muchas autoridades de competencia han tomado como sabidas para las plataformas digitales, siendo observables fenómenos como los extremos efectos de red o las dinámicas lock-in que presentan muchas de ellas.
La mayoría de los principales proveedores de sistemas de IA (OpenAI, Google, Meta o xAI) entrenan las capacidades de lenguaje de sus modelos, de forma general (pre-training) y también para satisfacer tareas más específicas, a partir del procesamiento de una gran cantidad de datos. Normalmente, estas operaciones se realizan a través de la técnica del web scraping, por la que se extraen datos de forma masiva de páginas web públicas, como perfiles públicos de redes sociales o contenido disponible en línea. De hecho, se ha demostrado que los principales proveedores de sistemas de IA no solamente utilizan datos de contenido en línea que podemos calificar como ‘libre’ (porque es públicamente accesible a cualquiera) sino que también extraen datos de obras protegidas por derechos de autor o contenido que solamente es accesible a determinados suscriptores de una determinada página web (por ejemplo, a los suscriptores de un periódico). Este entrenamiento básico de las capacidades de lenguaje del modelo, luego se refinará mediante la inserción de datos más específicos que se ajusten a los fines que el proveedor quiere conseguir. Por ejemplo, si el modelo será aplicado en el ámbito sanitario, tendrá sentido que se introduzcan datos de este tipo, relativos a sintomatologías o diagnósticos pasados, para procurar que el modelo pueda realizar su función de una forma más precisa).
Una vez el modelo está entrenado, su proveedor lo empezará a ofrecer en el mercado. No obstante, estos modelos, en la mayoría de los casos, no son tecnologías estáticas que dejan de evolucionar una vez están disponibles para el consumidor. Los consumidores interactúan con el modelo, por ejemplo, al responder o valorar las respuestas que le da a sus preguntas. Así, el proveedor utiliza estos datos y señales para seguir mejorando este mismo modelo (mediante el aprendizaje por refuerzo o reinforcement learning).
Recientemente, la Comisión Europea incoó un procedimiento sancionador por una infracción de la prohibición de abuso de posición dominante (o de monopolización) contra Google, por la forma en la que entrenó a su modelo de IA para luego integrarlo en sus dos funcionalidades, AI Overviews y AI Mode. Ambas herramientas ocupan un lugar especialmente prominente cuando un usuario realiza una búsqueda: la primera se activa en la parte superior del buscador mostrando una respuesta a la pregunta del usuario, mientras que la segunda aparece como una herramienta disponible justo al lado de la barra del buscador para acceder al modelo de IA directamente, sin ninguna fricción.
En concreto, la autoridad de competencia europea ha detectado dos tipos de potenciales daños anticompetitivos, específicamente de carácter explotativo. Primero, aquellos daños que se derivan del entrenamiento del modelo de IA (pre-training) y, por tanto, que proporcionan los datos para las funcionalidades de Google. Por la propia vinculación que Google ostenta en relación con servicios complementarios como YouTube, la autoridad considera que aquella utilizó su posición dominante para apropiarse de todos los vídeos que los creadores de contenido publicaban en la aplicación, sin mediar compensación y sin ofrecerles la posibilidad de no prestar su consentimiento para el entrenamiento de su modelo de IA. Según apunta la autoridad, los competidores de Google en la provisión de modelos de IA no tienen la posibilidad de acceder al contenido de YouTube para entrenar sus propios servicios.
Segundo, aquellos daños causados por el modelo de IA, cuando está disponible en el mercado e interacciona con los datos disponibles de otros operadores en mercados aguas abajo. En concreto, la autoridad apunta que Google también aprovechó su posición dominante para presentar sus funcionalidades al usuario nutriéndose del contenido de los editores web (es decir, aquellos que diseñan y operan las páginas web y que Google posiciona en las búsquedas mediante enlaces azules), sin mediar contraprestación. Además, señala la autoridad de competencia que la mayoría del tráfico generado respecto de estos editores web se realiza a través del buscador, por lo que no sería esperable que estos confrontaran a Google pidiéndole que excluyera su contenido del entrenamiento del modelo. En caso de que lo hicieran, estos editores web podrían verse relegados a ser posicionados por parte de Google en posiciones más bajas, en las que no obtendrían ningún tráfico.
De esta forma, la Comisión Europea emprende una nueva estrategia de aplicación del derecho de libre competencia, al atajar el fenómeno de la IA de frente, equiparando potenciales injusticias derivadas del entrenamiento de estos modelos (que incluso pueden solaparse con infracciones de los derechos de propiedad intelectual de aquellos dañados) a daños anticompetitivos. En efecto, la reciente intervención de la Comisión Europea subraya que el entrenamiento de modelos de lenguaje no es un proceso neutral, sino una actividad con potencial explotativo. Al equiparar la falta de consentimiento y compensación por el uso de datos con infracciones anticompetitivas, se establece un precedente histórico: el control de los datos de entrenamiento será, a partir de ahora, tan crucial para la libre competencia como lo fue en su día el control de las infraestructuras físicas.