“Es evidente que el buen uso del lenguaje jurídico es importante, pero también debe ser claro. A diferencia de lo...
Hacia una IA transparente: entre el «efecto bruselas» y el «enjambre normativo»
“¿Son suficientes las leyes de protección de datos, ciberseguridad y transparencia algorítmica para abordar la opacidad de los sistemas de IA en el Estado? Una respuesta sensata, al parecer, es no”.
Lorayne Finol - 12 septiembre, 2025
La inteligencia artificial se ha convertido en una herramienta indispensable, prometiendo una mayor eficiencia en los servicios públicos y en diferentes espacios de la sociedad. Sin embargo, su uso también introduce una "caja negra" que desafía la rendición de cuentas y la transparencia. La pregunta clave es cómo ha respondido el marco legal chileno a este desafío, y la respuesta, lamentablemente, es que lo ha hecho de manera fragmentada y reactiva.

Mientras, en Europa el Reglamento (UE) 2024/1689 ha sentado un precedente claro con un enfoque de alto riesgo que exige trazabilidad, explicabilidad, evaluabilidad y mitigación de impactos, así como el deber de informar a los ciudadanos por transparencia, en Chile hemos adoptado un camino disperso.
Iniciativas como la Ley de Protección de Datos (Ley N° 21.719), que desarrolla el principio de transparencia e información, o la Resolución 372 exenta del CPLT, que exige el derecho de acceso a la información de los sistemas de IA, son pasos en la dirección correcta, pero son piezas de un rompecabezas incompleto. A esto se suma la Ley 21.663 de ciberseguridad, que exige deberes como gestión de activos informáticos, y registros de incidentes. A los que se suma, una nueva iniciativa que busca exigir marcas o sellos en los contenidos generados por IA (boletín 17.810-19).
Esta situación genera un debate entre dos posturas: quienes que sostienen que los principios generales de optimización son suficientes para garantizar un uso responsable de la IA, y quienes consideramos que son necesarios mecanismos articulados para su uso y proteger los derechos fundamentales. El problema es que esta serie de regulaciones no están coordinadas y reaccionan desarticuladamente. Como ha señalado el jurista Gustavo Zagrebelsky, esta "legislación motorizada" genera un exceso de leyes que, en lugar de ordenar, crean más incertidumbre.
El resultado es lo que podemos llamar un "enjambre normativo", donde distintas normas se yuxtaponen y, promueven anomias. En otras palabras, una desorganización que propicia la violación de las normas. Esta situación plantea una pregunta crucial: ¿Son suficientes las leyes de protección de datos, ciberseguridad y transparencia algorítmica para abordar la opacidad de los sistemas de IA en el Estado? Una respuesta sensata, al parecer, es no.
Este enfoque genera tensiones y ambigüedades. En un estudio reciente que realicé, se identifica una docena de disposiciones normativas que se cruzan y no abordan el problema de fondo: la falta de confianza en las decisiones administrativas automatizadas. Porque el marco actual no distingue entre los riesgos de la IA en la administración pública, el sector privado o las instituciones democráticas, lo que perjudica la capacidad de mitigar amenazas específicas. Esta arquitectura jurídica se aborda en profundidad en mi artículo “Transparencia de la Administración del Estado: Discusión y análisis desde la perspectiva de la inteligencia artificial”, publicado en la Revista de Derecho Administrativo y Económico.
Como dijo Ortega y Gasset: "El tema de nuestro tiempo es buscar el modo de imbricar o incardinar el derecho en la nueva sociedad". Este desafío es más relevante que nunca. La automatización con IA puede mejorar la gestión y los servicios públicos y privados, por lo que abordar este "enjambre normativo" no es solo una cuestión de técnica legislativa, sino una necesidad democrática.
Es vital garantizar que la gobernanza digital proteja, en lugar de amenazar, los derechos de las personas. La transparencia no es un ideal, sino la base de la confianza en el Estado, y para alcanzarla, necesitamos un enfoque que supere la actual dispersión normativa. La regulación de la IA no puede ser un asunto de "retazos", sino un esfuerzo coherente que garantice la confianza pública en la era digital.
* Lorayne Finol Romero es investigadora del Instituto FACDEH de la Universidad Central.
También te puede interesar:
— Reconceptualizando la transparencia para la gobernanza algorítmica