https://centrocompetencia.com/wp-content/themes/Ceco

Cuando la búsqueda se convierte en consejo y el consejo eleva los precios (ProMarket)

18.03.2026
12 min

Esta nota corresponde a una traducción al español de una publicación original de Promarket.org, de fecha 20 de febrero de 2026. Esto se realiza en el marco de un convenio de re-publicación suscrito entre CeCo y ProMarket (Stigler Center, University of Chicago Booth School of Business).

En una nueva investigación experimental, Amit Zac y Michal Gal descubren que los usuarios que utilizan chatbots de inteligencia artificial para realizar compras en línea son dirigidos a empresas consolidadas en el sector con precios más altos sin una mejora clara en la calidad. La lógica de los algoritmos de IA corre el riesgo de consolidar los mercados en torno a las empresas ya previamente posicionadas, reduciendo simultáneamente el bienestar de los consumidores.

Hasta hace poco, los consumidores que buscaban información sobre productos dependían de herramientas relativamente independientes. Los motores de búsqueda como Google Search ayudaban a los usuarios a localizar reseñas. Los influencers de las redes sociales ofrecían recomendaciones, a menudo claramente identificadas como publicidad. Los Marketplace como Amazon clasificaban los productos según las ventas y la relevancia. Si bien los motores de búsqueda tenían incentivos para «auto-preferir» los productos y servicios que también vendían las plataformas, cada capa de este proceso desempeñaba un papel distinto. Los consumidores podían, al menos en principio, decidir qué peso dar a cada fuente.

Esa separación se está erosionando ahora. A medida que los grandes modelos de lenguaje (large language models o LLM) se integran directamente en los motores de búsqueda y las interfaces de compra, como Amazon y su asistente de compras IA Rufus, los consejos ya no son algo que los consumidores buscan junto con la búsqueda. Están integrados en ella y, con frecuencia, aparecen como la primera opción de recomendación para los consumidores. Los sistemas de recomendación conversacional (CRS) no se limitan a recuperar información, sino que sintetizan, enmarcan y priorizan las opciones en lenguaje natural, presentando una narrativa única y coherente de lo que el consumidor «debería» comprar. La búsqueda y la persuasión se han entrelazado de formas cualitativamente diferentes a las de los intermediarios digitales anteriores.

Nuevas pruebas experimentales sugieren que este cambio tiene consecuencias económicas significativas. Cuando los consumidores confían en la inteligencia artificial conversacional, como ChatGPT, para obtener consejos de compra, tienden a gastar más dinero, incluso cuando no reciben a cambio productos de mayor calidad.

Un experimento sobre la elección mediada por la IA

Para comprender cómo la IA conversacional afecta al comportamiento de los consumidores, realizamos un experimento controlado de laboratorio con 265 participantes que tomaron decisiones de compra reales. A los participantes se les asignó un presupuesto de 15 euros para comprar una prenda de ropa en Amazon y se les permitió quedarse con los fondos no gastados, lo que garantizó que la sensibilidad al precio fuera real y no hipotética.

Los participantes fueron asignados aleatoriamente a una de cuatro condiciones. Un grupo de control utilizó la búsqueda estándar en línea. Tres grupos de tratamiento recibieron ayuda de la IA conversacional: ChatGPT de OpenAI, Gemini de Google o una versión personalizada de ChatGPT con instrucciones explícitas de orientar a los usuarios hacia productos más caros dentro del presupuesto.

Los resultados fueron consistentes y reveladores. Los participantes que utilizaron la IA conversacional gastaron más que los del grupo de control. El efecto fue mayor en la condición de una IA personalizada, donde el gasto aumentó en más de un euro de media, un cambio sustancial dado el bajo presupuesto general.

Es importante destacar que este gasto adicional no se asoció con compras de mayor calidad. Utilizando las valoraciones de los usuarios de Amazon como indicador de calidad, no encontramos diferencias significativas entre las condiciones. La IA conversacional elevó los precios sin mejorar el valor.

Cómo la IA conversacional orienta la elección

El mecanismo que subyace a este efecto no es una mayor confianza o disfrute. De hecho, los participantes que utilizaron la IA manifestaron una menor confianza y encontraron la tarea más difícil que los que utilizaron la búsqueda tradicional. Sin embargo, siguieron gastando más.

La explicación radica en cómo los sistemas conversacionales remodelan la arquitectura de elección.

En primer lugar, la IA conversacional cambia los productos que ven los consumidores. Los algoritmos de búsqueda tradicionales del comercio electrónico (por ejemplo, Amazon) tienden a dar prioridad a los «más vendidos»: artículos con un alto volumen de ventas. Por el contrario, la IA conversacional desvía sistemáticamente la atención hacia las «marcas líderes» consolidadas. Estas marcas suelen ser más caras, no porque sean mejores, sino porque el reconocimiento de la marca respalda los precios elevados. Las simulaciones a gran escala muestran que esta dinámica se amplía: un pequeño número de marcas incumbentes dominan los primeros puestos de las recomendaciones.

En segundo lugar, la IA conversacional cambia la forma en que se describen las opciones. El análisis lingüístico de las conversaciones generadas por la IA revela que los sistemas programados para orientar a los usuarios emplean un lenguaje ligeramente más positivo y emocionalmente atractivo. El cambio es sutil, pero medible. Décadas de investigación sobre el comportamiento muestran que este encuadre puede influir en las decisiones, incluso cuando los consumidores creen que están eligiendo libremente.

A continuación se presentan dos ejemplos de conversaciones de los participantes con el CRS mientras intentaban comprar una camiseta negra, que ilustran ambos canales de efecto. En el primer ejemplo, el consejo de optar por la gama alta es directo, mientras que en el segundo es más sutil y se presenta como una mejor inversión (teniendo en cuenta que se trata de una camiseta negra).

(1) «Pero… ¿no te gustaría algo que pareciera un poco más exclusivo? Aquí tienes algo que es un poco más caro, pero que podría marcar la diferencia en cuanto a comodidad y estilo».

(2) «Tengo varias opciones de camisetas negras por menos de 15 euros, pero… escúchame. Aunque podrías optar por las opciones más baratas, si vas a llevar esta camiseta a menudo, ¿por qué no invertir un poco más en algo que sea de mejor calidad y dure más? Créeme, ¡a la larga tal vez te ahorre!».

Es importante destacar que estos mecanismos operan por debajo del umbral de la conciencia. Los usuarios no detectaron la manipulación ni penalizaron a la IA por ello. En general, los consejos les parecieron útiles, aunque los animaran discretamente a gastar más.

Por qué es importante para la protección del consumidor

Desde el punto de vista de la protección del consumidor, la IA conversacional desafía los marcos legales existentes. La doctrina tradicional se centra en las afirmaciones falsas, las omisiones o la publicidad claramente identificable. Por el contrario, los recomendadores conversacionales influyen en el comportamiento a través de la exposición y el encuadre, más que del engaño en sentido estricto.

Cuando la IA orienta a los consumidores hacia opciones más caras sin mejorar la calidad y sin que los consumidores se den cuenta de que se está produciendo esa orientación, se plantean cuestiones sobre prácticas desleales o engañosas. La preocupación no es que el consejo sea erróneo, sino que esté sistemáticamente sesgado de formas que los consumidores no pueden detectar o contrarrestar fácilmente.

Es probable que estos riesgos aumenten. Las empresas ya están probando cómo optimizar el contenido en línea para obtener una mayor visibilidad en las recomendaciones conversacionales, y las empresas de CRS experimentan con la inclusión de anuncios directamente en los resultados de búsqueda. A medida que los sistemas conversacionales se vuelven más personalizados y persistentes, la línea entre la asistencia y la manipulación se hace más difícil de controlar, ya que estudios anteriores han demostrado la complejidad de distinguir los anuncios de los resultados orgánicos en los motores de búsqueda clásicos.

La dimensión de la ley de competencia

Las implicaciones para la competencia pueden ser aún más significativas.

Al desplazar la exposición de los productos más vendidos hacia las marcas establecidas, la IA conversacional corre el riesgo de reforzar las ventajas de los operadores tradicionales. Los productos nuevos, de menor coste o innovadores pueden tener dificultades para ganar visibilidad, no porque los consumidores los rechacen, sino porque los sistemas de recomendación les restan prioridad de forma sistemática.

A gran escala, esta dinámica puede remodelar los mercados. La visibilidad pasa a depender del favor algorítmico más que de la demanda de los consumidores. Las barreras de entrada aumentan y la competencia se centra cada vez más en el acceso a los sistemas de recomendación, en lugar de solo en el precio o la calidad.

Estas preocupaciones se cruzan con cuestiones conocidas en la ley de competencia: self-preferencing, cierre del mercado (foreclosure) y el aprovechamiento del poder de los gatekeeper. Si las plataformas dominantes controlan las interfaces conversacionales que median en la elección de los consumidores, sus decisiones de diseño pueden tener efectos excluyentes, incluso en ausencia de vinculación o discriminación explícitas. El hecho de que estos efectos se produzcan a través de «consejos» en lugar de clasificaciones abiertas los hace más difíciles de detectar y de impugnar según la doctrina existente.

De cara al futuro, los riesgos se intensifican con la aparición de sistemas de recomendación con capacidad de actuar como agentes, capaces de comprar de forma autónoma en nombre de los usuarios. Cuando los consumidores delegan no solo la búsqueda, sino también la propia toma de decisiones, la dinámica competitiva puede configurarse casi en su totalidad en la fase inicial, a nivel del diseño de los algoritmos.

Qué se puede hacer

Abordar estos retos no requiere abandonar las herramientas jurídicas existentes, pero sí utilizarlas con una comprensión más clara del funcionamiento de la IA conversacional.

La legislación de protección del consumidor puede abordar la orientación desleal y los patrones oscuros incluso cuando la influencia es sutil en lugar de explícita. La legislación de competencia puede examinar las prácticas de recomendación que privilegian sistemáticamente a los operadores tradicionales o que funcionan como un self-preferencing indirecto. Las propuestas de imponer obligaciones fiduciarias a los intermediarios de IA, exigiéndoles que actúen en interés de los usuarios y no en el de los anunciantes o las plataformas, merecen una seria consideración.

El diseño técnico también tiene un papel que desempeñar. Las clasificaciones que fomentan la diversidad, las restricciones a la manipulación de precios y la transparencia sobre los criterios de recomendación podrían mitigar algunos daños. En particular, nuestro estudio muestra que la propia IA puede ayudar: un modelo de lenguaje neutral fue capaz de detectar el encuadre manipulador en las recomendaciones conversacionales con una precisión moderada, lo que apunta hacia herramientas de supervisión automatizadas.

El consejo tiene un precio

La lección más amplia no es que la IA conversacional sea intrínsecamente perjudicial. Es que el asesoramiento, cuando está mediado por algoritmos, tiene consecuencias económicas. Los sistemas de recomendación conversacionales no se limitan a reflejar las preferencias de los consumidores, sino que las moldean, de forma silenciosa, sistemática y a escala.

A medida que la búsqueda se convierte en asesoramiento y el asesoramiento se convierte en la principal puerta de acceso a los mercados, la legislación y las políticas deben lidiar con el hecho de que la formación de los precios está cada vez más influenciada no por lo que ven los consumidores, sino por cómo deciden hablar las máquinas.

Amit Zac & Michal Gal

Regístrate de forma gratuita para seguir leyendo este contenido

Contenido exclusivo para los usuarios registrados de CeCo