https://centrocompetencia.com/wp-content/themes/Ceco

Jurisprudencia fantasma

15.04.2026
18 minutos
Camilo Santelices Vergara
Camilo Santelices Vergara Abogado, U. de Chile. LLM en Competencia e Innovación, LSE. Profesor de Derecho Privado, U. de Chile. Ex Coordinador de la División Antimonopolios, FNE.

Lea el siguiente considerando:

«Que, en cuanto a la excepción de incompetencia opuesta por el Fisco… este Tribunal ha señalado reiteradamente que el Decreto Ley N° 211 se aplica a todos los agentes económicos, sean éstos públicos o privados, y que, en consecuencia, es competente para conocer de los actos o contratos ejecutados o celebrados por organismos públicos que puedan atentar contra la libre competencia…» (Sentencia N° 75/2008, Caso ATREX vs. SCL).

El tono suena bien. El lenguaje replica la forma en que el TDLC redacta sus fallos. La doctrina es coherente con su línea jurisprudencial. Si uno no recuerda los detalles de un caso de hace casi veinte años, no tiene razón para dudar.

Pero es falso. La Sentencia N° 75/2008 existe y corresponde efectivamente al caso ATREX vs. SCL, pero no fue contra el Fisco ni se opuso excepción de incompetencia. El caso, en realidad, se trató de tarifas abusivas del concesionario del aeropuerto de Santiago contra empresas courier. La cita fue obtenida pidiéndole a una herramienta de IA generativa jurisprudencia del TDLC sobre la sujeción de organismos públicos a la normativa de competencia. Al leerla, me pareció demasiado precisa como para ser cierta. Y no lo era. Esta anécdota sirve para ilustrar lo que acaba de ocurrir ante el TDLC.

El caso del TDLC

El 24 de marzo de 2026, el TDLC declaró inadmisible una demanda por abuso de posición dominante (causa Rol C N° 547-26, folio 10). El tribunal ya le había dado al demandante una oportunidad para reformular su presentación (folio 7), porque no cumplía con la exigencia de exponer cómo los hechos infringirían la libre competencia. Con todo, la nueva versión (folio 9) tampoco lo logró, por lo que no fue admitida a tramitación (art. 20 del DL 211).

Pero el tribunal detectó algo más. El mismo escrito citaba las Sentencias N° 47/2006 y 75/2008 del TDLC (la misma que obtuve yo) y transcribía supuestos extractos de ambas. Al revisar los fallos, esas citas no aparecían en ninguno. Eran inventadas. Por cierto, el escrito incluía además pasajes atribuidos a jurisprudencia de la Corte Suprema, pero sin identificar fuente alguna.

Pero también expone un riesgo emergente: si el uso no supervisado de IA se masifica, los tribunales quedarían expuestos a un volumen de citas fabricadas imposible de filtrar sin una carga de verificación que no les corresponde asumir.

No es un caso aislado

El caso más conocido de citas falsas generadas por IA es Mata v. Avianca (Nueva York, 2023), en el cual dos abogados presentaron un escrito con seis casos ficticios generados por ChatGPT. Cuando el tribunal exigió copia de los fallos citados, uno de ellos le preguntó al propio modelo si los casos existían; este le aseguró que sí y que podían encontrarse en Westlaw y LexisNexis. La sanción fue de USD 5.000 (~$4,6 millones), más la obligación de notificar personalmente a cada juez falsamente identificado como autor de las opiniones inventadas.

«Hacerse cargo de los riesgos de la IA ya es parte de la profesión»

Desde entonces, los episodios se han multiplicado. Por ejemplo, solo en febrero pasado es posible mencionar los siguientes casos: (i) en Chile, el Segundo Juzgado Civil de Concepción sancionó a un abogado por incluir jurisprudencia inexistente generada por IA (multa de 1 UTM); (ii) en Colombia, la Corte Suprema sancionó por temeridad procesal a un abogado que presentó un recurso de revisión con diez sentencias inexistentes y normas con contenido alterado; al pedírsele subsanar, reincidió en las mismas faltas (multa de 15 SMLMV, ~$6,6 millones); (iii) en España, el TSJ de Canarias multó a un profesional que incluyó 48 citas jurisprudenciales falsas en un recurso de apelación. Por cierto, el problema no se limita a los litigantes: la Corte Constitucional colombiana estableció parámetros para el uso de IA por jueces (sentencia T-323/2024), tras revisar un caso en que un tribunal había usado ChatGPT para complementar la motivación de un fallo.

Para entender por qué pasa esto, conviene saber cómo funciona un modelo de lenguaje grande o LLM (large language model), la tecnología detrás de herramientas como ChatGPT, Gemini o Claude. Un LLM no es un motor de búsqueda. No consulta bases de datos jurídicas ni verifica si un fallo existe antes de citarlo. Bender, Gebru et al. (2021)  acuñaron una metáfora que lo explica bien: un LLM es un “loro estocástico” (stochastic parrot). Este loro ensambla secuencias de palabras según patrones estadísticos extraídos de cantidades masivas de texto, pero sin referencia alguna al significado. Cuando se le pide que cite jurisprudencia, una ley o un texto de doctrina, genera algo que parece una cita correcta porque sigue los patrones formales: número de sentencia plausible, tribunal correcto, lenguaje jurídico coherente. Pero no tiene forma de distinguir entre una cita real y una que inventó. Es un loro muy elocuente, pero sigue siendo un loro. A veces acierta. Cuando no, produce información falsa con apariencia de información verificada. Si no sabe, inventa (o, en lenguaje técnico, “alucina”). Y cuando inventa, hace que su invento sea bastante verosímil. Pedirle al propio modelo que verifique sus citas tampoco es garantía: puede confirmar con la misma convicción algo que fabricó.

Dicho esto, no voy a argumentar contra el uso de IA en la práctica jurídica. Sería como argumentar contra usar Google, solo que peor: la IA generativa no solo busca información, sino que la organiza, la resume y produce borradores en minutos. Como señaló Sir Geoffrey Vos, Master of the Rolls del Reino Unido, estas herramientas podrían volverse no solo convenientes, sino necesarias para cumplir con el estándar de diligencia profesional. Lo que sí muestra el caso del TDLC es que la IA tiene riesgos concretos cuando se usa sin supervisión, y que las consecuencias recaen sobre el abogado y su cliente. El problema no es la herramienta. Es la ausencia de un human in the loop: una persona que controle lo que la máquina produce antes de que llegue al tribunal (Giulia Gentile, 2024).

Hacia una práctica diligente con IA

Varias jurisdicciones ya han avanzado en este tema. En Estados Unidos, la ABA Formal Opinion 512 (2024) estableció que la obligación de los abogados de representar competentemente a sus clientes incluye comprender las capacidades y limitaciones de las herramientas de IA que utilizan. El Bar Council inglés emitió ese mismo año una guía específica sobre LLMs, centrada en tres riesgos: las alucinaciones, el sesgo en los datos de entrenamiento y la confidencialidad de la información. La Law Society de Inglaterra y Gales había publicado ya en 2021 sus Lawtech and Ethics Principles, articulados por un principio rector de cuidado hacia el cliente. Por su parte, en octubre de 2025, el Colegio de la Abogacía de Madrid (ICAM) publicó una de las primeras guías prácticas en el mundo hispanohablante, con un marco que incluye protocolos internos, evaluaciones de riesgo y supervisión humana efectiva.

Por ahora, en Chile no existen instrumentos similares, pero hay normas y principios generales —de eficacia limitada— que pueden ser aplicables. Primero, el artículo 531 del COT, que usó el TDLC en este caso, contempla multas modestas y una suspensión profesional que rara vez se aplica. Segundo, el Código de Ética del Colegio de Abogados prohíbe el uso de citas inexactas “sabiendo o debiendo saber” que son inexactas (art. 97). A ello se suma el deber de empeño y eficacia en la litigación (art. 99). Sin embargo, toda vez que la colegiatura no es obligatoria, el ámbito de aplicación está muy restringido. Tercero, el Código Civil con su virtuosa generalidad y abstracción ofrece la acción de indemnización de perjuicios. Esta acción podría perfectamente basarse en la infracción a los deberes profesionales del abogado. Sin embargo, los costos de litigación y tiempos de tramitación la hacen poco atractiva en muchos casos.

En este escenario, para avanzar resulta necesario no solo pensar en ajustes normativos. Tanto el Colegio de Abogados como la Corte Suprema podrían, sin prohibir, generar criterios específicos sobre el uso de IA generativa en la práctica legal chilena.

A modo de cierre: dos consideraciones prácticas

Del caso del TDLC y la experiencia comparada, surgen al menos dos cosas que considerar.

La primera: en el estado actual de la IA, toda referencia a fuentes legales generada o sugerida por un LLM (jurisprudencia, normas, doctrina) debe verificarse contra la fuente original. Siempre. Sin excepción. La revisión, por cierto, no se agota en las citas: debe verificarse el contenido completo del escrito, su lógica y sus argumentos. Los LLMs no distinguen entre una cita real y una inventada, ni entre un argumento sólido y uno que solo lo parece. Los fantasmas no se cazan solos (todavía). Revisar lo que la máquina produce antes de firmar es parte del trabajo.

La segunda: los estudios jurídicos, los equipos legales y las autoridades de competencia (FNE, TDLC) tienen buenas razones para pensar en cómo integran la IA generativa a su trabajo, y de qué controles acompañan ese uso. El caso que motivó esta columna muestra que ignorar la pregunta tiene costos. Hacerse cargo de los riesgos de la IA ya es parte de la profesión.

 

 

Regístrate de forma gratuita para seguir leyendo este contenido

Contenido exclusivo para los usuarios registrados de CeCo