Newsletter
Suscríbete a nuestro Newsletter y entérate de las últimas novedades.
"Resulta sumamente importante comprender la diferencia entre correlación y causalidad para el análisis de datos, ya que, si bien la correlación puede proporcionar información valiosa sobre la relación entre las variables, establecer la causalidad evita sacar conclusiones erróneas que deriven en una toma de decisiones basada en supuestos incorrectos."
Este libro acerca algunas de las discusiones estadísticas y econométricas que generalmente se encuentran en casos de libre competencia a abogados que no han tenido formación en estos temas.
El libro se estructura de la siguiente manera: la primera parte del libro revisa conceptos estadísticos básicos que son necesarios para entender el resto del libro. En la segunda parte se explican conceptos más avanzados de estadística y aplicaciones econométricas que usualmente son empleadas en el análisis de casos. Finalmente, en la tercera parte se explica cómo dichas técnicas y algunas variaciones de estas son usadas en materia de libre competencia para definir mercados relevantes o analizar conductas específicas.
"(…) con el perdón de mis colegas, el antitrust tiene poco de derecho y mucho de economía. Y dentro de ese mucho, hay a su vez mucho de estadística. Un abogado que se sumerja en esas aguas sin saber de estadística posiblemente se exponga a hacer un ridículo monumental."
Un grupo de amigos subieron a dar un paseo en un globo aerostático. Su impericia en navegar hizo que los vientos los desviaran de la ruta prevista. Estaban perdidos y no tenían la más mínima idea de cómo encontrar la ruta de regreso.
De pronto vieron en la cima de una montaña a una persona. El viento los acercó y uno de los improvisados pasajeros le gritó “¡Saaabe dooonde estaaaamos!” La persona les contestó “Siiiiii. En un gloooobo”.
El que preguntó se volteó a los demás y les dijo “Ese señor debe ser economista”. Ante la pregunta sobre cómo lo sabía, se limitó a decir “Su data es correcta, su metodología es impecable, pero su conclusión no añade nada a lo que ya sabemos.”
El chiste lo escuché cuando participaba en un programa de televisión en el que economistas y abogados discutíamos sobre la utilidad de la economía en las discusiones legales. Y, por supuesto, el chiste lo contó un abogado.
Lo que me llamó la atención es que, si yo hubiera estado en el globo y hubiera escuchado esa respuesta, hubiera posiblemente contestado que el curioso individuo en la cima de la montaña era, en realidad, un abogado.
Los abogados tenemos el (dudoso) mérito de meternos casi en cualquier asunto: desde las relaciones familiares, hasta las indemnizaciones por daños, o las vicisitudes de un contrato de construcción, pasando por las oscuras (para nosotros) ciencias afines a la legislación de competencia. Parece que no nos asustamos de pisar casi cualquier territorio, por más agreste que parezca para lo que hemos estudiado.
Pero con la misma soltura con que nos metemos en cualquier cosa, solemos también no saber en dónde nos metemos. La cantidad de veces que los abogados decimos cosas que no tienen sentido sobre algo que no es de nuestro conocimiento, es enorme. Lo he visto (y experimentado en carne propia) tantas veces que me atrevo a sugerir que los abogados se equivocan con más frecuencia que aquella con la que aciertan cuando se meten a hablar de otras ramas del conocimiento.
Un área que es particularmente representativa de este fenómeno es la economía. Y una sección que es particularmente proclive a motivar un análisis o una frase similar a “en un globo” es el derecho de la libre competencia.
Es que, con el perdón de mis colegas, el antitrust tiene poco de derecho y mucho de economía. Y dentro de ese mucho, hay a su vez mucho de estadística. Un abogado que se sumerja en esas aguas sin saber de estadística, posiblemente se exponga a hacer un ridículo monumental.
No estoy diciendo que un abogado tenga que convertirse en economista, y menos aún en un experto en estadística. Para eso están los peritos o los equipos económicos que lo asisten y asesoran. Pero ello no significa que el abogado pueda eludir sumergirse en esas aguas sin contar con un equipamiento básico que le dé las herramientas que le permitan entender y alegar. Y este trabajo le da precisamente esas herramientas.
Por eso creo que hay que dar una bienvenida entusiasta y una felicitación efusiva a la iniciativa de los autores de este libro. Eligiendo un paquete de herramientas básico nos abre la posibilidad de hablar de algo de lo que, originalmente, sabemos poco. O, mejor dicho, para hablar más de lo que se sabe. Solo el conocimiento nos ayuda a saber qué es lo que no sabemos. Y solo sabiendo de aquello de lo que hablamos podemos persuadir, que es quizás el rol principal del abogado cuando ejerce la defensa de un caso.
Esto es particularmente cierto en el derecho de la libre competencia. Y aún más cierto con el uso de herramientas estadísticas. En esta rama todo es data. Como la sangre en la camisa o la huella digital en el cuchillo, la data estadística y la forma como esta se usa para construir un argumento, constituye muchas veces la evidencia principal del caso. Puede hacer la diferencia entre la culpabilidad y la inocencia. Como bien se explica en el libro, no distinguir causalidad de correlación, no entender la diferencia entre mediana, media y moda, no conocer la relevancia de entender qué es la varianza, o por qué es relevante conocer que es un equilibrio de Nash y los conceptos básicos de teoría de juegos, pueden ser el equivalente de entrar a una cueva sin una antorcha.
Como nuestros personajes del globo, los abogados suelen elevarse sobre el resto del mundo y dejarse arrastrar a territorios desconocidos en los que formulan las preguntas erradas y obtienen las respuestas equivocadas. Con un concepto básico de geografía, en lugar de preguntar “dónde estamos” hubieran podido preguntar “¿sabe en qué coordenadas nos encontramos?” Hubieran tenido una respuesta más asertiva y útil para sus propósitos.
He sido testigo de eso infinidad de veces, cuando un abogado, preguntando por un miembro economista de un tribunal en un caso de libre competencia, se atreve a desperdiciar una inmensa oportunidad de quedarse callado, y pretender explicar por qué, si las ventas de un producto caen 40% todo es atribuible a un acto ilícito del competidor, sin analizar que en medio de la historia estuvo el Covid causando una caída espectacular de la demanda del producto. O decir, de manera similar a la cita del poeta Nicanor Parra al inicio de la primera parte del libro que, si alguien comió dos pollos y otro ninguno, comen, en promedio, un pollo cada uno. Ello es cierto, pero no es verdad. La estadística permite entender la aparente paradoja.
Así que termino con un consejo simple y directo: si usted es abogado, lea este libro. No se arrepentirá.
"No obstante, en otros casos, la prueba cualitativa no es suficientemente robusta y se requiere un análisis de los datos económicos. Para ello, las herramientas que entrega este manual son muy útiles para analizar los datos y ver si estos explican la teoría del daño que hay detrás del caso."
La reciente publicación de Jorge Fantuzzi y Santiago Matallana, “Estadística para libre competencia: Un breve manual para abogados”, es justamente eso: un manual simple, fácil de leer y comprender, que entrega los conceptos básicos de estadística y econometría que pueden ser útiles para analizar algunos casos de libre competencia.
En un lenguaje sencillo, didáctico y con ejemplos, el manual aborda conceptos básicos de estadística, como los principales estadígrafos de posición: la media, mediana y moda; y los estadígrafos de dispersión, como el rango, varianza y la dispersión estándar. Luego, se habla de la significancia estadística, de la distribución de probabilidad y la frecuencia, y de la diferencia entre correlación y causalidad.
Posteriormente, el manual hace referencia a la utilidad de la econometría y del uso de regresiones para explicar causalidad, y se refiere a los principales problemas que pueden surgir: omisión de variables, endogeneidad y uso de variables irrelevantes.
Finalmente, mediante ejemplos, se muestra la aplicabilidad de las herramientas anteriores para determinar el mercado relevante del producto y geográfico, el poder de mercado y para medir concentración de mercado. Se entrega una pequeña explicación de lo que es la teoría de juegos y para qué sirve, y luego se ejemplifica la aplicabilidad de todas estas herramientas en casos de discriminación de precios y prácticas verticales. En el último capítulo se explica el método de antes y después o diferencias simples, y el método de diferencias en diferencias a casos de competencia desleal.
Una de las primeras aplicaciones de estadígrafos de posición la realiza el Tribunal de Defensa de la Libre Competencia (“TDLC”) en la Sentencia 119/2012, relativa al caso colusión de farmacias. En este caso, el TDLC aplica el concepto de precio “moda” al análisis (c. 28 y siguientes) e indica que este es el precio relevante para probar que existió colusión, ya que era el que las cadenas de farmacias monitoreaban (c.106).
En la Sentencia 147/2015 (que trata de un requerimiento contra SMU por incumplimiento de una sentencia previa del TDLC), el Tribunal tuvo a la vista un informe económico que utilizaba isócronas. Este elemento también se tuvo en cuenta en el análisis de la operación de concentración de Cine Hoyts y Cinemundo, aprobada mediante conciliación por el TDLC el 15 enero del 2013.
El TDLC también consideró un análisis de robustez y significancia estadística en el caso del Recurso de Revisión Especial de Ideal y Nutrabien (Sentencia 166/2018), en las encuestas realizadas por la FNE sobre patrones de sustitución para definir el mercado relevante.
Por otra parte, estas herramientas pueden mal utilizarse y aplicarse para coordinar un acuerdo entre competidores. Este es el caso de la colusión de pollos (véase Sentencia 139/2014 del TDLC, c. 156 y siguientes), en que se estimaba la proyección anual de la demanda de carne de pollo mediante una regresión. El Departamento de Estudios de Asociación de Productores Avícolas obtenía los crecimientos esperados en el consumo del trutro y de la pechuga sumando los siguientes factores: la variación del precio del trutro o pechuga, según el caso, multiplicada por su elasticidad precio; la variación del precio del cerdo multiplicada por la elasticidad precio cruzada del trutro o pechuga respecto del precio de la carne de cerdo; la variación del precio de la carne de vacuno multiplicada por la elasticidad precio cruzada del trutro o pechuga respecto del precio de la carne de vacuno; y la variación del ingreso multiplicada por la elasticidad ingreso del trutro o pechuga. También se utilizó una variable dummy, “Diciembre”, para determinar la proyección del crecimiento de la demanda del pollo entero (c. 162). Todo ello contribuyó a la colusión, ya que permitió a las empresas requeridas repartirse el mercado según su participación de mercado.
Las herramientas que ofrece este manual son de especial relevancia si se requiere utilizar evidencia cualitativa y cuantitativa como prueba en casos de libre competencia. Hay casos en que basta con la prueba cualitativa, al ser suficientemente robusta como para que el juez se forme una convicción clara y concluyente respecto a la teoría del daño y los hechos acaecidos. Esto sucedió en el caso de colusión de pollos, donde se presentaron estudios económicos que intentaron analizar si las recomendaciones de la asociación gremial eran o no seguidas por las empresas requeridas. Es así como se utilizaron indicadores, como la variabilidad de la media de desviaciones absolutas y de la media de los errores porcentuales absolutos. Ambos habrían sido muy altos, lo que sugería que no habría existido seguimiento de las recomendaciones. Otro informe, presentado por la FNE, concluyó que habría existido colusión, pues el precio del pollo se habría mantenido constante por varios meses y no reaccionaba ante alzas en los costos, cambios en los precios de bienes sustitutos, entre otros. Ante prueba cualitativa robusta de la existencia del acuerdo, los estudios económicos son menos relevantes.
No obstante, en otros casos, la prueba cualitativa no es suficientemente robusta y se requiere un análisis de los datos económicos. Para ello, las herramientas que entrega este manual son muy útiles para analizar los datos y ver si estos explican la teoría del daño que hay detrás del caso. Todo lo cual permite que la íntima convicción de los jueces sea consistente con la data y otras evidencias.
Finalmente, hay casos en los que estas herramientas no se han aplicado, como el uso de regresiones mencionado en el manual para determinar si hay o no estrangulamiento de márgenes. Es así como, en la Sentencia 156/2017, el TDLC fue claro en indicar que el test que debe utilizarse es el de un competidor al menos tan eficiente como las empresas incumbentes (Test CIE, que utiliza los costos del incumbente para evaluar si hay o no estrangulamiento de márgenes), ya que éste permite determinar si los precios de la oferta mayorista fueron establecidos por el operador móvil con red con la finalidad de excluir a un competidor tan eficiente como él (c. 97 y 98).
"Lo que puede ser estadística impecable, puede ser prueba insuficiente. Para persuadir, debe ser atada a otros elementos. Y entre más pruebas, de preferencia individualizadas, más robusta será la motivación de una decisión."
Ser invitado a prologar una obra es un honor. Deseo responder a dicho honor compartiendo una reflexión sobre el valor que esta obra puede dar al abogado: tomar mejores decisiones. Dicha apreciación general tiene aplicaciones particulares diversas. Para presentar la idea, utilizaré la actividad que más llevo a cabo: actuar como árbitro. Pero las apreciaciones son de utilidad a todo el actuar del abogado.
Los árbitros—como las demás personas—tienen que decidir. Lo que diferencia las decisiones de un árbitro respecto de aquellas de las demás personas es que la consecuencia de la decisión del árbitro no impacta a su persona (y patrimonio), tendrá efectos en el patrimonio y la vida de otros: las partes. Ello magnifica la importancia de cerciorar que el proceso de toma de decisión es el mejor posible: por su trascendencia.
Decidir es difícil—siempre. La realidad es compleja. Pero es más difícil cuando el acervo evidencial es arduo; cuando la evidencia es inconsistente o conflictiva; cuando el impacto de la decisión es importante; cuando los argumentos presentados son inteligentes. Así ocurre con frecuencia en los casos sometidos al arbitraje. Casi por definición, un caso que arriba a un tribunal arbitral es discutible. Es cierto, existen los casos fáciles.[1] Pero son los menos, en mi experiencia. Tarde o temprano, las partes, aguijoneadas por el costo del proceso y el riesgo del resultado, aceptan el peso de la razón y llegan a un acuerdo en casos que no son grises. Pero hay una veta de casos en los que la respuesta no es clara. Es del género que puede válidamente caer de ambos lados. Es en dichos casos cuando se observa que las partes ponen la carne al asador: contratan a los gladiadores jurídicos y técnicos más experimentados para que armen una defensa robusta e inteligente. Esos son los casos que nos quitan el sueño a los árbitros. Los casos en los que, consumido el expediente, uno se rasca la cabeza en son de duda: ¿quién tiene la razón?
Quien esté en dicha situación hace bien en leer la obra de Jorge Fantuzzi y Santiago Matallana, Estadística para Libre Competencia: un Breve Manual para Abogados. El motivo: explica y explora una herramienta que puede ser de utilidad a quienes se encuentran en la situación de tomar una decisión ante un acervo probatorio complejo. Ello, pues la estadística tiene una función epistémica. Y como dice la advertencia epistemológica: cuando se está ante información inconsistente, una decisión suele decir más de nosotros—del tomador de la decisión—que del acervo probatorio evaluado.
¿Cómo utilizar la estadística para nutrir y mejorar decisiones? Deseo contestar esta pregunta compartiendo tres reflexiones: (1) primero, la elemental: ¿puede usarse la estadística en la toma de decisiones jurídicas? (2) Cómo usar la estadística. (3) Precauciones al utilizar la estadística.
La estadística es lo que nos dicen los grandes números. Cómo derivar información y conclusiones válidas a partir de datos.[2]
Existen aplicaciones diversas de la estadística: destaca por su importancia como prueba, como forma de distribuir consecuencias de ciertas causas[3] o, de forma más elemental, como trasfondo y contexto de lo que se evalúa.
Qua prueba, la estadística tiene un historial controversial. Suscita no sólo perspectivas encontradas, sino cuestionamientos de principio.
Por ‘prueba estadística’ se entiende que el tomador de decisión utilice una inferencia estadística para llegar a una conclusión. Una forma de evaluar evidencia que los datos proporcionan para probar una hipótesis. Que dicho resultado se utilice como premisa analítica de una conclusión jurídica.
¿Es la prueba estadística utilizable por principio? Existe un debate intelectual estimulante sobre el tema. Mientras que hay quienes aseveran que no es posible utilizar la estadística como un elemento probatorio, hay quienes consideran que ello sí es posible.[4] Ejemplifica la primera visión la profesora Jarvis Thomson, quien sostiene que la prueba estadística no es suficiente para fundar decisiones (veredictos).[5] Hacerlo requiere prueba individualizada. Que exista una conexión causal entre la prueba presentada y el hecho ilícito.
Alex Nunn lleva el punto más lejos: sostiene que usar evidencia estadística es una violación al debido proceso: el simple hecho que se utilice -aunque sea un poco- para arribar a un veredicto es una violación al debido proceso.[6]En mi opinión, no solo es posible, es aconsejable, utilizar la estadística en el proceso de toma de decisión. Pero advierto que mucho depende de qué se entiende por prueba estadística, y cómo se presenta y utiliza. Si, por ejemplo, por prueba estadística se entiende tomar en cuenta las lecciones sobre qué dice el análisis del comportamiento de los números grandes, propondría que todos estamos, de una manera u otra, estemos o no conscientes de ello, usando las lecciones que la experiencia acumulada enseña—estadística bajo otro nombre. Más abajo ejemplifico la aseveración con estándares probatorios. Pero como se verá, el acto de evaluar un acervo probatorio inconsistente con miras a definir qué conclusión arroja, incluye—si se pondera sobre el ejercicio implícito en ello—un acto ponderado con un componente probablemente estadístico.
Los estándares probatorios son la respuesta jurídica procesal al reconocimiento epistémico de que la verdad suele no solo variar dependiendo de la perspectiva de la que se mira, sino ser una cuestión de grado. Como es sabido, existen tres estándares probatorios frecuentemente socorridos: preponderancia de las pruebas (balance of probabilities), prueba clara y contundente (clear and convincing evidence) y ausencia de duda razonable (beyond a reasonable doubt).
Si se medita sobre los estándares (tanto en su concepción como aplicación), estos incluyen hablar de probabilidad:[7] ¿qué tan probable es que algo posible sea?[8] Es decir, epistemológicamente, dentro del continuum del conocimiento, cuántos elementos se necesitan para aceptar que algo es. La teoría del conocimiento enseña que, dentro del espectro de grados de conocimiento, existen diversos niveles de cognición. La ciencia jurídica los ha recogido y traducido en umbrales probatorios, mismos que varían en atención a la gravedad de la materia.[9] Todo lo anterior tiene un sabor estadístico: para formarse una opinión sobre qué le comunica un acervo probatorio, el evaluador suele tomar en cuenta lo que la experiencia le enseña—estadística por otro nombre. Ello pues la probabilidad es un nivel de conocimiento.[10] La determinación de que un hecho es causa de un efecto evoca necesariamente un análisis sobre la probabilidad del efecto. Ello incluye un análisis de causalidad probabilística. Y la interpretación de la probabilidad no puede hacerse en abstracto. Debe contestarse en concreto: tomando en cuenta el contexto en que ello ocurre.[11] La determinación de probabilidad es una cuestión probabilística: derivar conclusiones probabilísticas de premisas causales.[12] Schauer coincide.[13]
Lo anteriormente expuesto hace que la estadística sea ‘relevante’ en su sentido jurídico, probatorio: ayuda en la evaluación de si una pieza probatoria es más o menos probativa de un hecho controvertido. La relevancia de las estadísticas a la evidencia reposa, no en los números que conforman la estadística, sino en que son la base de la inferencia estadística.[14]
Por todo lo anterior, propongo que no solo puede utilizarse estadística en la toma de decisiones sobre qué dice un expediente, debe utilizarse. El motivo: como ello en sí ya ocurre, echar mano de la ciencia estadística imbuirá rigor al ejercicio analítico, idealmente reduciendo la posibilidad de error.
Aceptar el postulado anterior sirve para paliar la inquietud que recientemente ha generado la economía conductual (behavioral economics): que, sin saberlo, somos presos de nuestros sesgos, heurísticas y otros defectos analíticos. Como árbitro, a lo que me dedico es a juzgar. Consciente de las implicaciones de mis decisiones, deseo cerciorar que hago lo más y lo mejor posible para cerciorar que son buenas decisiones.[15] Entonces, ¿qué hacer para contrapesar los sesgos y defectos analíticos? Respuesta: usar estadística. Leer el libro Estadística para Libre Competencia: un Breve Manual para Abogados con miras a obtener destreza en esta herramienta en aras de mejorar nuestras decisiones.
La utilización de la estadística no es unifacética. Dependiendo de cómo se use, puede ser plausible o deplorable. Para ilustrar, tomemos algunos ejemplos.
Recientemente, un tribunal arbitral que este autor tuvo el honor y reto de presidir, se encontró con la necesidad de formarse una opinión sobre si el universo de elementos probatorios presentados en una prueba pericial eran demostrativos del hecho complejo para el cual eran presentados. El caso versó sobre un ilícito delicado (corrupción) que involucró a funcionarios importantes (incluyendo el presidente de un país), y que—según una de las partes—tuvo como resultado frustrar un proyecto importante y cuantioso, infligiendo un daño enorme (en su especie tanto de damnum emergens como lucrum cessans). Ello motivó una cascada de casi 500 solicitudes de resolución de contratos de terceros involucrados con el proyecto. Uno de los muchos temas que se debatieron fue la causalidad: ¿es lo ocurrido—que estaba demostrado: algo de sí digno de comentario separado—causa de la hemorragia de resoluciones? En apoyo de la tesis afirmativa se presentó una pericial que aludía (y presentaba como anexo) un universo de cartas que se referían al ilícito delicado como motivo de la resolución. Dicho universo era inferior al existente. La otra parte lo cuestionaba. Salió a relucir que el número de cartas presentadas como prueba no excedía el 2%: eran 10.
¿Es el 2% del universo de cartas de resolución existentes suficiente como para demostrar que las resoluciones fueron motivadas por la corrupción? Dicho más formalmente: ¿es 2% una muestra estadísticamente significativa?
Para llegar a la conclusión, el tribunal arbitral utilizó estadística.
499 personas pagaron la admisión a un evento. Se cuentan 1,000 en los asientos, de los cuales A es uno de ellos. Supóngase que no se emitieron boletos y no hay testimonio de que A haya pagado su entrada o que haya entrado por otros medios (se haya brincado la barda). En estos hechos existe una probabilidad de .501 de que A no pagó su entrada. La teoría de probabilidad convencional indicaría que, en dichas circunstancias, los organizadores del evento podrían demandar de A el pago del boleto de admisión. Ello pues el balance de probabilidad estaría de su lado. Pero parece injusto que A deba perder siendo que existe una probabilidad de .499 que sí pagó por su admisión.[16]
People v Collins[17] es un caso californiano que versó sobre el asalto de una mujer de edad por una mujer rubia, con cola de caballo, que fue recogida en un automóvil amarillo manejado por un hombre de color con barba y bigote. Ante testimonio no-conclusivo, el fiscal aludió a la probabilidad de que las seis variables cuya existencia había sido demostrada confluyeran: (i) mujer rubia, (ii) con cola de caballo, (iii) recogida por un hombre de color, (iv) con barba y (v) bigote, que además (vi) era su pareja: un matrimonio interracial (el robo ocurrió en 1968: la frecuencia de matrimonios interraciales era muy distinta a la actual.) Al exponer cuán improbable sería que todo ello concurriera, el fiscal argumentó que la probabilidad de que ello ocurriera como coincidencia con la misma pareja que estaba siendo juzgada era muy baja: uno en doce millones. Invitó al jurado a incluir el porcentaje que cada jurado considerara apropiado para cada una de las variables para que ellos mismos lleguen a su conclusión. El objetivo (aparente[18]) fue ilustrar mediante hipérbole, no ostentarla como prueba conclusiva.
La sentencia fue condenatoria. Sin embargo, la Suprema Corte de Justicia de California revirtió. Ahora bien, dicha corte no rechazó por principio la utilización de la prueba estadística, sino el cómo se utilizó.[19] Criticó (visceralmente) el que el fiscal haya hecho suposiciones sobre la probabilidad de que seis variables independientes pudieran coexistir, indicando que ello sería un caso en doce millones.[20] Si se medita sobre ello, no se rechaza la utilización de la prueba estadística, sino que bajo el manto de la misma se hagan cosas que no son científicas.[21]
El común denominador de los casos citados—algunos ejercicios intelectuales, otros casos reales—es que implican el uso de razonamiento probabilístico… Estadístico. La pregunta, sin embargo, es si la utilizan válidamente. Y si se decide que unos sí y otros no, ¿en qué se distinguen?
Hoy por hoy, sin estadística, el evaluador utilizaría su sentido común. Ponderaría el conjunto de circunstancias de cada ejemplo para formarse una opinión.
Propongo que el tomador de decisión no solo hace bien en considerar el aspecto estadístico de la cuestión al evaluarla, haría mal en no hacerlo. El motivo: abona a una mejor decisión. Para ver porqué, pensemos qué ocurriría en ausencia del paso. El evaluador (abogado diseñando estrategia, juez o árbitro aplicando el derecho) harían uso de su intuición. De su sentido común. De su lógica. Ello no es reprochable. Pero hemos aprendido que el sentido común, intuición y la lógica son imperfectos. El resultado es por ende necesariamente imperfecto. Ello—propongo—es indiscutible.
Si el lector acepta lo anterior, ¿acaso no sería conveniente que el evaluador eche mano de la estadística para nutrir su decisión—sea cual fuere su sentido?
Cuando se está ante evidencia conflictiva, la determinación sobre la existencia de un hecho hace bien en considerar la probabilidad de que el hecho ocurra, medida estadísticamente. Así, puede nutrirse de un elemento adicional, científico, a lo que de otra manera sería una determinación que descansa en intuición o sentido común.
Habiendo defendido la idea de la utilización de la estadística tanto como prueba como para imbuir rigor a nuestras decisiones, deseo alertar al lector sobre precauciones a seguir para evitar caer en peligros de hacerlo. Tres vienen a la mente.
Primero, debemos cerciorar que en verdad estemos ante estadística. La estadística a veces es traicionera. Probablemente ello explica que detone reacciones enérgicas, con frecuencia dogmáticas, a veces viscerales, siempre emocionales. La intuición nos puede estar haciendo un llamado de atención válido. Debemos cerciorar que exista un ejercicio digno de satisfacer cánones estadísticos, y no la ciencia chatarra (junk science) con la cual ciertas personas barnizan de (pseudo-) ciencia sus escritos o reportes periciales de una manera que apantalla solo a los diletantes, los poco cuidadosos o quienes no estudiaron el expediente.[22]
Segundo, paciencia: no es fácil traducir información estadística en un postulado confiable sobre la cuestión en disputa. Ello requiere trabajo; paciencia; ponderación. Pero el esfuerzo vale la pena. Ello debe incluir enfrentar no solo las conclusiones, sino también el método seguido con la perspectiva de expertos contrarios. Ello, pues la estadística con frecuencia no da soluciones fijas, sino cánones a seguir.
Tercero, procuremos amarrar la prueba estadística con otras pruebas. Un principio probatorio dicta que el peso probatorio de un acervo probatorio debe variar en base a la cantidad, variación y confiabilidad de diferentes pruebas de tal forma que, entre más prueba, mejor. Entre más variada la prueba, mejor. Y cuando, ante pruebas disonantes, enfrentemos y pongamos ambos acervos probatorios en la balanza, observando cuál pesa más no solo en cantidad sino en calidad. Y previo a llegar a una conclusión, analicemos la hipótesis contrafactual para ver cuál es más probativa.
En el contexto de una obra sobre estadística destinada a estar en manos de abogados, propongo que hacemos bien en resistir el “Wells Effect”:[23] escepticismo a la utilización de la estadística. Como defiende la obra de Fantuzzi y Matllana que prologo, la utilización de la estadística puede ser valiosa. La obra se enfoca en temas diversos e interesantes como la definición de mercado, la determinación de existencia de poder de mercado, la explicación de cierta conducta (equilibrio de Nash y teoría de los juegos), y prácticas específicas como discriminación por precios y competencia desleal. Al hacerlo, la obra se erige en un colaborador de los abogados que enfrentan retos en la toma decisiones.
Me sumo a dicho cometido haciendo las siguientes propuestas que el acervo intelectual (casos, literatura y reflexiones) sobre la estadística arroja:
—
[1] Que versan por ejemplo sobre un deudor moroso. O casos propiciados por necedad o excentricidad.
[2] Datos, no información. La información usa datos, pero es más. (Vid. Yuval Noah Harari, Nexus, Albin Michel, New York, 2024.)
[3] Por ejemplo la responsabilidad proporcional derivada de concausas o negligencia concurrente (contributory negligence).
[4] La discusión suele centrarse en materia penal: la posibilidad de emitir veredictos (convictions) usando prueba estadística. En esta reflexión doy un paso hacia atrás y hablo de ‘decisión’. El paso se justifica no solo por el contexto en que mi aportación ocurre, sino porque una decisión sobre un veredicto penal es más delicada que otro tipo de decisiones. En dicha circunstancia suele imbuirse un nivel de exigencia adicional no existente en otras materias (como civiles).
[5] Liability and Individualized Evidence, Law & Contemporary Problems, 1986, p. 199.
[6] G. Alexander Nunn, The Incompatibility of Due Process and Naked Statistical Evidence, 68 Vand. L. Rev. 1407, 1418-20.
[7] La probabilidad es un número entre cero y uno que expresa la posibilidad de que un evento ocurra. Cero implica que el evento no ocurrirá. Uno implica que existe certeza que el evento ocurrirá.
[8] Ver Edmund L. Gettier, Is Justified True Belief Knowledge?, Analysis 23.6, Junio 1963.
[9] La premisa de tal aproximación es que, entre más delicada es una consecuencia, más alto debe ser el estándar probatorio a colmar para tener por satisfecho el apetito de convicción del evaluador que el hecho que detona la consecuencia ocurrió. Ello es tutelar: cerciora que quien vivirá consecuencias jurídicas es cuidado en forma proporcional a su seriedad.
[10] L. Jonathan Cohen, The Probable and the Provable, Clarendon Press, Oxford, 1977, p. 26.
[11] Phyllis Illari & Federica Russo, Causality: Philosophical Theory meets Scientific Practice, Oxford University Press, UK 2014, p. 83.
[12] Id. p. 76.
[13] Frederick Schauer, The Proof: Uses of Evidence in law, politics, and everything else, Harvard University Press, 2022, p. 60.
[14] Frederick Schauer, The Proof: Uses of Evidence in law, politics, and everything else, Harvard University Press, 2022, p. 59.
[15] O por lo menos las mejores posibles.
[16] David Kaye, The Paradox of the Gatecrasher and Other Stories, 1979 ARIZ. ST. L.J. 101, 101 (1979). También L.J. Cohen, The Probable And The Provable 75 (1977). Citado en Against the Alleged Insufficiency of Statistical Evidence, Florida State University Law Review, Vol. 47, p. 807.
[17] People v. Collins, Supreme Court of California 68 Cal.2d 319 (Cal. 1968). 66 Cal. Rptr. 497. 438 P.2d 33. 11 de March de 1968.
[18] Existen visiones distintas a este respecto. Mientras que la Suprema Corte de California en People v Collins leyó el acto como parte conclusiva del argumento, algunos pensadores que han analizado lo ocurrido consideran no solo que era una cuestión tangencial, sino que el ejercicio buscaba que los miembros del jurado consideraran las pruebas conjuntamente. Que cada prueba otorgue más evidencia de la improbabilidad de que todas esas circunstancias ocurrieran al mismo tiempo. Y que la Suprema Corte perdió de vista el punto: la prueba no buscaba presentar un resultado exacto. El punto no era obtener una probabilidad exacta, sino demostrar cuán raras eran las circunstancias.
[19] Tan es así que su holding fue “We hold that mathematical odds are not admissible as evidence to identify a defendant in a criminal proceeding so long as the odds are based on estimates, the validity of which have [sic] not been demonstrated.” (id. p. 328) La oración enfatizada (por mi) hace concluir que la Suprema Corte no estaba en contra del paso en sí, sino cómo ocurrió en el caso concreto, en el cual el fiscal había adivinado los porcentajes propuestos.
[20] En sus palabras “we have strong feelings that such applications, particularly in a criminal case, must be critically examined in view of the substantial unfairness to a defendant which may result from ill conceived techniques with which the trier of fact is not technically equipped to cope.” (id. p. 332)
[21] Dicho esto, hay espacio para concluir que inclusive la Suprema Corte malentendió lo que ocurrió. El fiscal no aludió a la paridad 1/12,000,000 (uno en doce millones) como prueba, sino como ejemplo. Como forma de ilustrar lo que un razonamiento probabilístico arrojaría dependiendo del porcentaje de probabilidad que se le atribuya. Tan es así que el fiscal invitó a los miembros del jurado a que cada uno piense en el porcentaje de cada variable, y lo incluya en el análisis invitado. Por consiguiente, hay quien considera que la Suprema Corte erró: incurrió (irónicamente) en un error estadístico: desagregó. (Vid. David Crump, The New People V. Collins: How Can Probabilistic Evidence Be Properly Admitted?, Maine Law Review Vol. 76:1.)
[22] Ello por cierto tiene una implicación ética que abordo en el Prurito del Perito (Ius Et Praxis (45), p. 207) y El Experto: La Voz de una Ciencia en un Proceso (Liber Amicorum Miguel Ángel Fernández-Ballesteros, David Arias (coordinador), La Ley, Madrid, 2024, p. 961). Cuando ello ocurre, los abogados faltan a su deber ético de hablar con la verdad y litigar de buena fe. Y algo semejante puede decirse de expertos cuando, actuando como pistoleros a sueldo carentes de quilla ética y orgullo por su ciencia, están dispuestos a decir lo que sea si se les paga lo suficiente, vistiéndolo de (pseudo-) ciencia.
[23] Sam Fox Krauss, Against the Alleged Insufficiency of Statistical Evidence, ob. cit. p. 823
[24] Si bien la estadística es prueba, ello no significa que sea prueba suficiente.