fbpx
lunes, 19 de mayo de 2025

columnas

Ciberseguridad en la era de la IA: lecciones globales y hoja de ruta para Chile

“Chile se encuentra en una posición única para definir un camino hacia la adopción responsable de la inteligencia artificial, pero la implementación exitosa de estas prácticas integradas no depende únicamente de herramientas tecnológicas o mandatos legales”.

Gonzalo Álvarez - 19 mayo, 2025

La inteligencia artificial (IA) está catalizando una transformación sin precedentes en múltiples sectores, tanto en Chile como a nivel global. Su adopción acelerada promete beneficios sustanciales en eficiencia, innovación y capacidad de análisis. Sistemas basados en IA se integran cada vez más en funciones críticas como las finanzas, la salud, la seguridad pública y la administración de infraestructuras esenciales. Esta integración, a menudo facilitada por herramientas que se incorporan casi sin fricción en plataformas existentes, impulsa la productividad y abre nuevas posibilidades.

CiberseguridadGonzalo Álvarez

Sin embargo, este avance tecnológico no está exento de desafíos significativos. Paralelamente a su potencial transformador, la IA introduce un panorama de riesgos de seguridad novedoso y complejo, que difiere sustancialmente de las amenazas tradicionales de ciberseguridad. La seguridad de la inteligencia artificial presenta desafíos distintos a los de la seguridad informática convencional. Si bien comparte principios fundamentales como la confidencialidad, integridad y disponibilidad, la naturaleza específica de los sistemas de IA introduce vectores de ataque y vulnerabilidades particulares.

Esta naturaleza y su dependencia de vastos conjuntos de datos y la opacidad de algunos de sus procesos internos ("caja negra") crean superficies de ataque únicas y vulnerabilidades específicas. La sofisticación de los ataques dirigidos a sistemas de IA también está en aumento, lo que exige una revaluación constante de las estrategias de defensa. Ante este escenario, asegurar una IA confiable (trustworthy AI) se convierte en un imperativo que requiere un enfoque proactivo e integrado. No basta con abordar los aspectos puramente técnicos de la seguridad. Es necesaria una fusión deliberada de las mejores prácticas técnicas con marcos legales y regulatorios robustos.

Diversas iniciativas y organismos internacionales, como OWASP (Open Worldwide Application Security Project), NIST (National Institute of Standards and Technology) y ENISA (European Union Agency for Cybersecurity), junto con la investigación académica, han identificado un conjunto de amenazas específicas para la IA: (i) Envenenamiento de Datos (Data Poisoning): Esta técnica consiste en la manipulación maliciosa de los datos utilizados para entrenar un modelo de IA, para corromper el proceso de aprendizaje del modelo en el entrenamiento, para que exhiba comportamientos indeseados una vez desplegado. (ii) Ataques Adversarios (Evasión): Consisten en la creación de entradas (inputs) diseñadas específicamente para engañar al modelo y provocar una clasificación errónea o una salida incorrecta. (iii) Inyección de Prompts (Prompt Injection): Específica de los Modelos de Lenguaje Grandes (LLMs), esta vulnerabilidad implica manipular las instrucciones o “prompts”; que se le dan al modelo para inducir comportamientos nodeseados. (iv) Vulnerabilidades de la Cadena de Suministro: Los sistemas de IA a menudo dependen de componentes de terceros, como conjuntos de datos preexistentes, modelos preentrenados o bibliotecas de software. Cada uno de estos componentes puede introducir vulnerabilidades si no se verifica adecuadamente.

En el esfuerzo por establecer un marco coherente para la seguridad de la IA, la iniciativa del gobierno del Reino Unido se destaca como un referente internacional significativo. Su “Código de Prácticas para la Ciberseguridad de la IA” (en adelante, el Código UK), publicado en enero de 2025, representa un esfuerzo concertado para definir principios de ciberseguridad de referencia específicamente adaptados a los sistemas de IA. Aunque de naturaleza voluntaria, su propósito es guiar a las organizaciones y servir de base para el desarrollo de estándares globales, como los que se están elaborando en el Instituto Europeo de Normas de Telecomunicaciones (ETSI). Este código se apoya en directrices previas del Centro Nacional de Ciberseguridad (NCSC) del Reino Unido, como las “Directrices para el desarrollo seguro de sistemas de IA”.

Un aspecto fundamental del Código UK es su enfoque estructurado en torno al ciclo de vida completo de la IA. Reconociendo que la seguridad debe integrarse en todas las etapas, el código organiza sus principios en cinco fases clave: Diseño Seguro, Desarrollo Seguro, Despliegue Seguro, Mantenimiento Seguro y Fin de Vida Seguro. Los principios que articula el Código UK abarcan temas cruciales para la seguridad de la IA, tales como: «Seguridad Proactiva Basada en Riesgo» (principios 2 y 3); «Supervisión y Responsabilidad Humana» (principio 4); «Gestión de Activos Críticos» (principios 5 y 8); «Seguridad Técnica Fundamental» (principios 6 y 7); «Validación y Mantenimiento Continuo» (principios 9 y 11); « Seguridad Operacional y Retiro» (principios 12 y 13); «Comunicación y Transparencia con los usuarios finales» (principio 10). La inclusión explícita del “Fin de Vida Seguro” (principio 13) merece especial atención.

A menudo, el ciclo de vida de la seguridad se centra en las fases activas de desarrollo y operación, descuidando el momento del retiro. Sin embargo, los modelos de IA encapsulan patrones aprendidos y potencialmente información confidencial derivada de sus datos de entrenamiento. Una eliminación inadecuada podría dar como resultado el robo del modelo, la reconstrucción de datos confidenciales o la transferencia de vulnerabilidades a otros sistemas si los componentes se reutilizan.

Por su parte, en Chile la Ley Marco de Ciberseguridad N° 21.663, promulgada en abril de 2024, constituye el pilar fundamental del ordenamiento jurídico chileno en materia de ciberseguridad. Su objetivo primordial es establecer una institucionalidad robusta, definir principios rectores y fijar una normativa general para estructurar, regular y coordinar las acciones de ciberseguridad, tanto dentro del Estado como en su relación con los particulares.

La ley crea organismos clave como la Agencia Nacional de Ciberseguridad (ANCI) y el Equipo Nacional de Respuesta a Incidentes de Seguridad Informática (CSIRT Nacional), y establece requisitos mínimos para la prevención, contención, resolución y respuesta a incidentes. Su entrada en vigor es progresiva, con ciertas disposiciones clave activándose en fechas posteriores a la publicación inicial.

Lo anterior, es sin ningún lugar a dudas un paso e hito transcendental para nuestro país en el tema, lo que nos pone en un lugar privilegiado en el concierto internacional en estas materias. ¿Pero este nuevo incipiente nuevo marco legal es suficiente para tener a raya todos los riesgos y amenazas exploradas a propósito de los sistemas de IA? Es decir, ¿cómo integramos estos sistemas de protección técnicos legales a la realidad tan opaca de la IA? Resulta entonces poco dudoso que, dada la complejidad inherente a la seguridad de la IA, junto con el marco legal emergente en Chile, demande un enfoque sintético y proactivo.

No basta con cumplir aisladamente los requisitos legales ni con adoptar prácticas técnicas de forma desarticulada. Es fundamental tender un puente entre las mejores prácticas internacionales (como las reflejadas en el Código UK), las realidades técnicas de las amenazas (identificadas por OWASP, NIST y la academia) y los mandatos específicos de la Ley 21.663.

A continuación, se propone un marco integrado de recomendaciones accionables, estructurado según el ciclo de vida de la IA y adaptado al contexto chileno. Así, se debe tener presentes estas prácticas en todos los estados del sistema (Diseño- Desarrollo-Despliegue), por ejemplo, un correcto Modelado de Amenazas específico para IA en la fase de diseño para mitigar o prevenir vulnerabilidades potenciales como el envenenamiento de datos, ataques de evasión o inyección de prompts, adaptando metodologías como STRIDE o ATT&CK. En fase de desarrollo, una debida Integridad de los Datos de Entrenamiento, implementando medidas robustas para prevenir envenenamiento de datos. En fase de despliegue, cumplir con el Aseguramiento de la Infraestructura, protegiendo debidamente donde se desplegarán los moldeos de IA.

Por último, junto a una gestión continúa de actualizaciones y monitoreo, generar protocolos de eliminación segura de los modelos de IA y los datos asociados cuando ya no sean necesarios. Chile se encuentra en una posición única para definir un camino hacia la adopción responsable de la inteligencia artificial, pero la implementación exitosa de estas prácticas integradas no depende únicamente de herramientas tecnológicas o mandatos legales.

Requiere fundamentalmente el fomento de una cultura de ciberseguridad sólida dentro de la organización. Esto implica una formación y concienciación adecuadas para todas las partes interesadas: desarrolladores, operadores de sistemas, usuarios finales y la alta dirección. La Ley 21.663 misma apunta a la necesidad de formar una cultura pública en seguridad digital.

Muchas fallas de seguridad en IA pueden originarse o ser exacerbadas por errores humanos o falta de conciencia (manejo inadecuado de datos, caer en ataques de phishing dirigidos a credenciales de IA, configuraciones incorrectas). Por lo tanto, los controles técnicos y los marcos legales deben ser reforzados por un factor humano: una fuerza laboral informada y consciente de la seguridad, para que las defensas sean verdaderamente efectivas.

 
*Gonzalo Álvarez Seura es abogado y doctor en Derecho. Es director ejecutivo de Tech-Law.ai y académico en la Facultad de Derecho y Humanidades de la Universidad Central de Chile.
 
También te puede interesar:
La Ley de Resiliencia Cibernética: un paradigma de seguridad digital obligatoria
Legal Prompting 2.0: la nueva fórmula para consultas legales eficaces en ChatGPT
IA en Derecho: un llamado a la precisión, conocimiento digital y la ética profesional
 

artículos relacionados


podcast Idealex.press