Newsletter
Suscríbete a nuestro Newsletter y entérate de las últimas novedades.
Como este poncho me queda grande, recurro a ChatGPT, en versión pagada. Me responde -sin titubear- que sí, pero con una advertencia: “siempre y cuando las regulaciones sean equilibradas, flexibles y bien diseñadas, para fomentar tanto la protección de derechos como la innovación”. Sigo desorientado. Le insisto: ¿Incluso para un país como Chile? Sí, me dice, pero ojo con los estándares internacionales, el impacto en la innovación local, las capacidades institucionales, la adaptación a contextos locales, el capital humano, la transparencia, la participación pública y los recursos para monitoreos. Ahí mi perplejidad aumenta.
Conociendo mi fijación por cuestiones concretas, me refugio en el proyecto de ley sobre inteligencia artificial (IA), que el presidente Boric, -junto a 11 de sus ministros-, presentó en mayo al Congreso. Leo con atención sus 31 artículos. A pesar de detectar un par de errores menores de tipeo, se ve que le han dado vueltas al asunto. Tenemos una política nacional de IA desde 2021 y una circular del 2023 para el sector público. Fuimos el primer país en implementar la metodología RAM de Unesco. Hay un proyecto de ley presentado por diputados, además de discusiones bajo la Comisión Futuro del Senado. Luego escucho a la ministra de Ciencia, Tecnología, Conocimiento e Innovación decir, con un entusiasmo envidiable y a ratos contagioso, de que este proyecto convierte a Chile en país pionero en IA y lo catapulta al escenario internacional (Icare, 27/7).
¿Será posible conseguir eso a través de una ley o es una aspiración risible? Si fuese factible: ¿Será bueno que Chile lidere -o intente liderar- en estas lides?
«Ojalá yerre, pero un texto tan abierto y tan poco explorado, respecto a un asunto tan dinámico e internacional, con un Estado -el nuestro- con evidentes limitaciones, podría traer más costos que beneficios.«
Se dice que IA es más revolucionaria que la imprenta e internet. Según el AI Index Report 2024 de Stanford (la universidad “vaticana” de la tecnología), actualmente IA supera a los humanos en algunas tareas (clasificación de imágenes, razonamiento visual y entendimiento lingüístico); es dominada por empresas privadas (en 2023 las empresas privadas produjeron 51 modelos de machine learning); la inversión en IA es de miles de millones de dólares; EE.UU. sigue liderando este mercado, con distancia respecto a Europa y China; IA ayuda a la rapidez y calidad del trabajo, aunque requiere supervisión humana, lo mismo con la investigación científica, y la gente está más consciente del impacto de IA y a la vez más nerviosa.
Volvamos a Chile. El proyecto de ley se basa en un enfoque de riegos, estableciendo principios y estándares. El objeto de esta ley sería hacer que IA esté al servicio del ser humano, respetando los principios democráticos, el Estado de Derecho y los derechos fundamentales de las personas. Harto pedir, aunque suene bien. Luego clasifica los riesgos en inaceptables, altos y limitado. Los inaceptables estarían prohibidos. Serían ciertos sistemas de AI como los de manipulación subliminal, los que explotan vulnerabilidades de las personas, las categorizaciones biométricas basados en datos sensibles, las calificaciones sociales genéricas y la evaluación de los estados emocionales de una persona. Los sistemas de alto riesgo, por su parte, incluye la protección de la salud, seguridad, derechos fundamentales y el medioambiente. Aquí se establecen reglas y su precisión se dejan para un reglamento posterior.
El ámbito de aplicación sería el territorio nacional, aunque se pueden generar dudas de extraterritorialidad, en especial cuando el proveedor o implementador se encuentre afuera pero su información de salida se utiliza en Chile.
Sobre la gobernanza, se crea un comité asesor ad honorem de 15 personas, todas ellas nombradas por el Ejecutivo. Además, se le otorgan facultades investigativas y sancionatorias a la misma agencia que se crearía bajo el proyecto de Ley de Protección de Datos Personales que aún se encuentra en tramitación. Esa agencia podría imponer multas hasta de US$1.5 millones a las personas naturales o empresas que infrinjan la ley, en un procedimiento con recursos ante la Corte de Apelaciones y la Suprema, sin perjuicio de procedimientos de indemnización de perjuicios.
Por último, se establece un sistema de espacios controlados de pruebas -en donde un órgano estatal permite que un proveedor realice pruebas antes de su introducción al mercado- y medidas de incentivos a las pymes para acceder prioritariamente a esas pruebas.
Hartas definiciones abiertas, hartas innovaciones y harta intervención estatal, para algo totalmente “dinámico”, “vertiginoso”, “reciente”, “plástico” e “impredecible”, como lo reconoce el mismo proyecto. A eso hay que agregar que no hay experiencia integral de regulación aplicada. Recién la Unión Europea -cuyas empresas apenas aparecen en el ranking de las grandes tecnológicas- aprobó una extensa ley de más de 400 páginas. Por su parte, EE.UU. se ha concentrado en un esquema de autorregulación y está por verse si surgen leyes a nivel federal. Difícil hacer trasplantes legales cuando hay puras semillas o proyectos de semillas. Ahí el margen de error aumenta exponencialmente, en especial respecto a tecnologías que surgen y se desarrollan primordialmente en el extranjero.
Mi inquietud es que este proyecto puede ahuyentar a las empresas tecnológicas de IA para instalarse u operar en nuestro país, pero peor aún, desincentivar a las empresas nacionales que quieran implementar IA en sus procesos. Todas las regulaciones, como los remedios farmacéuticos, pueden traer efectos secundarios indeseados. Ojalá yerre, pero un texto tan abierto y tan poco explorado, respecto a un asunto tan dinámico e internacional, con un Estado -el nuestro- con evidentes limitaciones, podría traer más costos que beneficios. Buenas intenciones, por desgracia, no aseguran buenas leyes.
*Publicado en el diario El Mercurio el 14 de julio de 2024.