Newsletter
Suscríbete a nuestro Newsletter y entérate de las últimas novedades.
https://centrocompetencia.com/wp-content/themes/Ceco



La incorporación de inteligencia artificial (IA) en los sistemas de onboarding y atención al cliente —especialmente en la postventa, esto es, aquellos servicios posteriores a la compra de un bien o servicio, vinculados con la experiencia del usuario y su satisfacción, a través de seguimientos, reparaciones, asistencia técnica, entre otros— está transformando silenciosamente uno de los espacios más relevantes de la relación entre empresas y consumidores. Lo que tradicionalmente fue un ámbito de cumplimiento y resolución de conflictos hoy se ha convertido también en un espacio de competencia.
Pero, esta transformación plantea una pregunta clave desde el derecho económico: ¿la IA en la postventa está intensificando la competencia en calidad y eficiencia, o está generando nuevas formas de exclusión y segmentación que requieren intervención regulatoria?
Desde el SERNAC, en 2020 participamos en la elaboración de la Política Nacional de Inteligencia Artificial impulsada por el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación lanzada en 2021, la que identificó tempranamente a las relaciones de consumo como un ámbito crítico de impacto de estas tecnologías. Posteriormente, esa misma preocupación se tradujo en la dictación de la Circular Interpretativa del SERNAC sobre el uso de IA por parte de proveedores, que buscó aterrizar estos principios en deberes concretos: información clara y oportuna sobre el uso de sistemas automatizados, identificación de la interacción con IA, transparencia en los procesos de decisión, responsabilidad del proveedor por los resultados del sistema, resguardo de la libertad de elección, prevención de discriminaciones arbitrarias y la garantía de revisión o intervención humana cuando estén en juego decisiones relevantes para el consumidor.
En otras palabras, se trató de traducir un marco general de principios de derecho del consumidor —como la transparencia, la explicabilidad y la centralidad de la persona— en estándares operativos exigibles en la relación proveedor-consumidor. Visto en perspectiva, existe una línea de continuidad clara: desde una política pública general hacia una regulación sectorial aplicada.
La respuesta a la pregunta inicial, como suele ocurrir, depende en buena medida de la estructura del mercado.
«Desde la perspectiva de la competencia, esto no es trivial. La postventa deja de ser solo una etapa posterior a la transacción para convertirse en un espacio donde pueden generarse efectos exclusorios».
En mercados competitivos, la incorporación de IA puede generar incentivos virtuosos. La automatización permite reducir costos, mejorar tiempos de respuesta y ofrecer soluciones personalizadas. En estos contextos, la calidad de la postventa —incluyendo la experiencia digital— pasa a ser una variable competitiva relevante. Empresas que utilizan mejor la IA pueden fidelizar clientes y diferenciarse, disciplinando al resto del mercado.
Sin embargo, este escenario cambia en mercados con poder de mercado significativo o con consumidores cautivos —como servicios básicos o ciertas plataformas digitales—. En estos casos, la IA puede transformarse en una herramienta de contención más que de servicio: sistemas automatizados que dificultan el acceso a soluciones, explotan sesgos conductuales, canalizan a los consumidores hacia flujos ineficientes o retrasan la descontratación o la resolución de conflictos.
Desde la perspectiva de la competencia, esto no es trivial. La postventa deja de ser solo una etapa posterior a la transacción para convertirse en un espacio donde pueden generarse efectos exclusorios. La segmentación algorítmica permite clasificar consumidores según su comportamiento, historial de reclamos o perfil de riesgo. Si estos sistemas derivan sistemáticamente a ciertos grupos —como consumidores más “costosos”, conflictivos o vulnerables— hacia canales de menor calidad o menor capacidad resolutiva, se configura una forma de discriminación indirecta incompatible tanto con el principio de trato equitativo como con un funcionamiento competitivo del mercado.
Este tipo de riesgos ha sido advertido en la literatura bajo el concepto de dark patterns. En el contexto de la IA, estos patrones pueden volverse más sofisticados y menos visibles, dada la opacidad algorítmica y la dificultad de auditar decisiones automatizadas.
Aquí cobra especial relevancia un estándar que ya aparece implícito en la regulación administrativa y que además ya ha sido recogido en ciertas leyes: el derecho a una intervención humana significativa. No se trata de prohibir la automatización, sino de evitar que esta se transforme en una barrera al ejercicio de derechos. La posibilidad de escalar a un agente humano no solo corrige errores o sesgos, sino que introduce un contrapeso frente a decisiones automatizadas que pueden estar diseñadas —intencional o estructuralmente— para minimizar costos empresariales. Así, por ejemplo, en la Ley 21.431 que regula el contrato de trabajadores de empresas de plataformas digitales de servicios, se dispone expresamente que el contrato del trabajador de plataformas digitales dependientes debe indicar la designación de un canal oficial de comunicación con el trabajador, el que siempre deberá ser atendido por una persona si el trabajador lo requiere (además de requerirle a la plataforma el acceso a la programación del algoritmo, a explicaciones completas y suficientes sobre la forma de su toma de decisiones y los datos con las que fue entrenado, entre otros factores relevantes, en procesos de fiscalización por las autoridades competentes).
En la misma línea, la transparencia algorítmica y la trazabilidad de decisiones no son solo exigencias formales, sino condiciones para el funcionamiento competitivo del mercado. Si los consumidores no pueden comprender que están interactuando con un sistema automatizado, ni entender —al menos en términos generales— cómo se adoptan decisiones que les afectan, la asimetría de información se profundiza, debilitando la disciplina competitiva.
En Chile, este debate ha comenzado a tomar forma normativa tímidamente en regulación sectorial: además de la ya citada Ley 21.431, la Ley 21.719 que modificó sustancialmente la Ley 19.628 de datos personales en su artículo 8 bis, que regula las decisiones individuales automatizadas, incluido el profiling, obliga al responsable del tratamiento a adoptar las medidas necesarias para asegurarle al titular el derecho a obtener una explicación y a la intervención humana; la Ley 21.521 Fintec, que contiene obligaciones de transparencia para los sistemas de scoring y decisiones automatizadas en el ámbito financiero; y la Resolución Exenta N° 372/2024 del Consejo para la Transparencia, que establece recomendaciones en materia de transparencia algorítmica.
Más allá de estas normas, la transparencia algorítmica y la trazabilidad de decisiones no deben entenderse como meras exigencias formales, sino como condiciones habilitantes para el ejercicio efectivo de derechos en mercados digitales. Como ha evidenciado la literatura reciente —incluyendo estudios sobre transparencia algorítmica en el sector público (UAI–CPLT, octubre de 2021)—, el principal riesgo no radica únicamente en la falta de información, sino en la persistencia de una opacidad estructural, en la que, incluso cuando se declara el uso de sistemas automatizados, los consumidores carecen de herramientas reales para comprender, cuestionar o impugnar las decisiones que les afectan. El desafío regulatorio, por tanto, no es solo exigir transparencia, sino evitar que esta se reduzca a un cumplimiento meramente formal, incapaz de corregir las asimetrías de información que la propia IA puede profundizar.
Por su parte, con el proyecto de ley sobre sistemas de inteligencia artificial actualmente en tramitación se podrían consagrar principios como la supervisión humana, la transparencia, la explicabilidad, la rendición de cuentas y la protección de los derechos de los consumidores, en línea con la evolución comparada, particularmente la normativa europea.
Sin embargo, desde una perspectiva crítica, el proyecto también plantea riesgos. La amplitud y densidad de estos principios —formulados de manera transversal— puede traducirse en costos de cumplimiento elevados e incertidumbre regulatoria, especialmente para actores más pequeños. Exigencias como la explicabilidad amplia o la trazabilidad extensiva pueden ser razonables en sistemas de alto riesgo, pero resultan desproporcionadas en aplicaciones de bajo impacto, como muchas de las utilizadas en atención al cliente.
Existe además el riesgo de que un enfoque excesivamente precautorio termine rigidizando el desarrollo de soluciones basadas en IA, desincentivando la experimentación y reduciendo la capacidad de las empresas —particularmente pymes— para competir en calidad de servicio. En el ámbito de la postventa, esto podría generar un efecto paradójico: limitar herramientas que mejoran la experiencia del consumidor sin necesariamente abordar los casos donde efectivamente existen riesgos de exclusión o abuso.
Por ello, la clave parece estar en avanzar hacia un enfoque de regulación basada en riesgos, coherente con los propios principios que inspiran tanto la política pública como la regulación sectorial. Esto implica exigir mayores estándares a quienes tienen mayor poder de mercado, volumen de datos o capacidad de afectar derechos relevantes, y permitir mayor flexibilidad en contextos de menor riesgo.
Herramientas como auditorías de sesgos, evaluación de prácticas de diseño engañoso como los dark patterns, derechos efectivos de intervención humana, estándares de explicabilidad proporcionales y mecanismos de supervisión ex post pueden contribuir a equilibrar innovación y protección.
La experiencia chilena ofrece, en este sentido, un punto de partida relevante. La identificación temprana de riesgos para los derechos de los consumidores —como la exigencia de información veraz y oportuna, la opacidad algorítmica, la discriminación automatizada y la ausencia de control humano significativo— demuestra que es posible anticipar estos desafíos y traducirlos en estándares regulatorios, sin necesariamente inhibir el desarrollo tecnológico. No obstante, el desafío actual no es solo reconocer estos riesgos, sino asegurar que las herramientas regulatorias eviten transformarse en exigencias meramente formales, incapaces de corregir las asimetrías que la propia IA puede profundizar.
La postventa, en definitiva, ya no es solo un problema de cumplimiento regulatorio. Es un espacio donde se juega una parte sustantiva de la competencia en mercados digitales. Y la IA, bien utilizada, puede ser un motor de eficiencia, calidad y diferenciación. Pero mal diseñada —o implementada sin resguardos efectivos— puede transformarse en una herramienta de exclusión silenciosa, difícil de detectar y aún más compleja de corregir.
El desafío para el derecho de la competencia y del consumo será, precisamente, distinguir entre ambos escenarios, con la suficiente anticipación, asegurando que la innovación se traduzca en mejores condiciones para los consumidores y no en nuevas formas de segmentación o exclusión.
Regístrate de forma gratuita para seguir leyendo este contenido
Contenido exclusivo para los usuarios registrados de CeCo