Newsletter
Suscríbete a nuestro Newsletter y entérate de las últimas novedades.
En los últimos años, los poderes legislativos de distintas partes del mundo están proponiendo y aprobando distintas formas de regulación para capturar el funcionamiento de los sistemas de aplicación de inteligencia artificial (IA), como el Reglamento Europeo de Inteligencia Artificial o la Ley para la Regulación Ética de la Inteligencia Artificial. El enfoque de esas regulaciones se centra en establecer algunos principios básicos relacionados con la aplicación de esos sistemas de IA en la vida real, especialmente en aquellos supuestos de hecho que pueden generar una mayor afectación a derechos fundamentales. Normalmente, tales normas toman prestados los principios del Derecho Constitucional.
«Aquellos reguladores que ya han establecido normativa ex ante aplicable a las grandes empresas tecnológicas para capturar su poder de mercado se están replanteando si acaso los servicios de IA generativa de dichas empresas podrían estar capturados igualmente por dicha regulación.»
Sin embargo, estos poderes legislativos parecen haber olvidado que existe un problema creciente en torno a la concentración de los mercados que operan en cada nivel de la cadena de distribución de los sistemas de IA. Además, la propia aplicación y diseño de estos sistemas también generan dudas sobre su capacidad de producir resultados verídicos y equitativos.
Los sistemas de IA designan a un grupo numeroso de tecnologías que pueden ser tan variados como el uso de sistemas de reconocimiento facial en aeropuertos o un asistente de voz virtual.
La IA generativa es solamente una de las manifestaciones de estos sistemas, que dependen del desarrollo de una capacidad de simulación de habilidades en el lenguaje. De esta forma, servicios como ChatGPT o Gemini, responden a las preguntas (prompts) que insertan los usuarios y proveen la respuesta que es más probable que conteste a la cuestión, teniendo en cuenta la información disponible que se ha utilizado para ‘entrenarla’. Es decir, los servicios de IA generativa no responden necesariamente de una forma acertada a las preguntas que les formulan sus usuarios.
Desde la perspectiva de su diseño, los modelos de IA generativa de procesamiento de lenguaje natural dependen de tres procesos que su desarrollador debe realizar: i) pre-training o entrenar sus capacidades generales de creación del lenguaje; ii) fine-tuning o precisar estas capacidades a tareas específicas; y iii) deployment o su posterior aplicación y distribución en el mercado.
Cada uno de estos procesos llevan aparejados riesgos distintos. El proceso de pre-training requiere de una gran capacidad de computación y de inversión por parte del desarrollador del sistema, ya que se debe procesar una gran cantidad de datos para que el sistema desarrolle y aprenda las capacidades generales para generar frases coherentes. Esa capacidad de computación solamente está disponible mediante dos vías. Por una parte, mediante el hardware de los GPU (chips especializados que aceleran el entrenamiento de los sistemas de IA) o, por otra, mediante el acceso a los servicios de computación en nube. Ambos mercados están altamente concentrados, ya que NVIDIA ostenta el 60% de cuota de mercado, mientras que los servicios de computación en nube de Amazon, Apple y Google ostentan un poder de mercado colectivo similar (ver nota CeCo). Asimismo, este entrenamiento del sistema de IA generativa plantea una clara tensión con la regulación de protección de datos personales, ya que sus desarrolladores no suelen indicar las fuentes de datos que han utilizado para completar este primer proceso. De esta forma, el regulador no tiene manera de determinar si se han procesado datos personales para tal fin contraviniendo estas normas.
Partiendo de esta falta de transparencia, el proceso de fine-tuning también plantea problemas, ya que, por ejemplo, el desarrollador que interviene en esta etapa del proceso tampoco sabe de qué grupo de datos personales y no personales debe disponer para conseguir que el sistema de IA realice las tareas específicas relacionadas con la capacidad pre-existente de generar secuencias lógicas de lenguaje. Este fenómeno se conoce como black-box, ya que el desarrollador no conoce de forma precisa qué inferencias debe realizar el sistema de IA para que se pueda utilizar en línea con el propósito con el que fue diseñado.
Finalmente, la distribución del servicio final en el mercado no solamente supone que el desarrollador lo ofrece directamente a sus usuarios, sino que debe establecer las salvaguardas necesarias para que los resultados que se generen no sean discriminatorios o se basen en información falsa. No obstante, la forma en la que la mayoría de los sistemas de IA generativa muestran sus resultados es puramente selectiva y automática. Es decir, el sistema selecciona la secuencia de palabras que considera que probablemente se ajusta más a los parámetros introducidos por el usuario.
Aunque no son aparentes, los sistemas de IA generativa plantean serios problemas en cuanto al correcto y libre funcionamiento de los mercados. Por una parte, el primer proceso necesario para desarrollarlos se encuentra dominado por un puñado de empresas. Además, las barreras técnicas a la entrada del mercado suponen que los potenciales entrantes se vean desincentivados a desarrollar herramientas similares a aquellas que ya ofrecen las grandes empresas tecnológicas. Por otra parte, los sistemas de IA generativa pueden incurrir fácilmente en la conducta de auto-preferencia (self-preferencing), que algunas autoridades de competencia persiguen y sancionan en sede de la aplicación de la prohibición de abuso de posición dominante.
Por estos motivos, aquellos reguladores que ya han establecido normativa ex ante aplicable a las grandes empresas tecnológicas para capturar su poder de mercado se están replanteando si acaso los servicios de IA generativa de dichas empresas podrían estar capturados igualmente por dicha regulación. Por ejemplo, el regulador europeo ya plantea que tales servicios deberían analizarse bajo el ámbito de aplicación del Reglamento de mercados digitales.
No obstante, como tales regulaciones son asimétricas y solamente aplican a un número reducido de servicios digitales (entre los cuales no se engloban estos sistemas de IA generativa), realizar este análisis no es tan evidente como pudiera parecer. Por ello, el legislador europeo está planteando reformar su regulación ex ante para incorporar estos servicios directamente bajo su ámbito de aplicación.
En mi opinión, tales reformas no son necesarias ni serían especialmente productivas. No son necesarias por cuanto que los guardianes de acceso que sí que están capturados por dicha normativa ya ofrecen algunos de los servicios capturados mediante la incorporación de funcionalidades que dependen de sistemas de IA generativa. Por ejemplo, Google incorporó a su motor de búsqueda su funcionalidad Generative Search Experience, que permite al buscador responder directamente al usuario sobre su búsqueda mostrando un resultado (texto) en la parte superior de la pantalla. Asimismo, TikTok está desarrollando herramientas para sus creadores de contenido para que puedan crear avatares mediante estas herramientas.
Desde mi punto de vista, ya podríamos aplicar las obligaciones regulatorias a estos servicios directamente, sin tener que pasar por una reforma legislativa. Por ejemplo, TikTok debiera abrir los procedimientos de creación de avatares que contiene su red social a otros competidores, ofreciendo servicios similares de creación de imágenes o vídeos. De la misma forma, la nueva funcionalidad en el motor de búsqueda de Google debiera asegurar que realiza su ranking de resultados en la parte superior del buscador de acuerdo con criterios equitativos, transparentes y objetivos, sin incurrir en la prohibición de asegurar un tratamiento preferente a sus propios productos y servicios (o a aquellos servicios secundarios que dependan de ellos).
Por último, considero que la reforma legislativa no producirá un impacto especialmente pronunciado, ya que muchas de las obligaciones regulatorias no aplicarían a los nuevos sistemas de IA generativa (pensemos en ChatGPT de OpenAI) de forma retroactiva. Por tanto, los procesos de pre-training y fine-tuning no se verían afectados, ya que su (potencial) daño anticompetitivo ya se ha producido y no cabe modificarlo para acomodarlo a la nueva realidad regulatoria.
Regístrate de forma gratuita para seguir leyendo este contenido
Contenido exclusivo para los usuarios registrados de CeCo