fbpx
miércoles, 6 de mayo de 2026

columnas

Mythos: el monstruo que Anthropic aún no suelta

“Si la tecnología sin gobernanza es negligencia, la implementación de IA sin control fiduciario es una abdicación de funciones. Para los Directorios que aún intentan descifrar la ‘caja negra’, la respuesta no es la parálisis, sino la imposición de límites técnicos y legales infranqueables”.

Juan Pablo López - 6 mayo, 2026

Anthropic creó uno de los modelos de IA más poderosos que se conocen —uno capaz de encontrar vulnerabilidades que sobrevivieron décadas de revisión humana— y decidió no liberarlo al público.

Juan Pablo López

Mientras el laboratorio lo contenía, sin saber aún las consecuencias de su liberación, en LinkedIn los "expertos instantáneos" ya vendían recetas. La diferencia entre una actitud y la otra tiene nombre técnico: gobernanza. Y tiene costo legal: responsabilidad fiduciaria y solidaria del Directorio.

Mythos, el modelo desarrollado por Anthropic, alcanza un 73% de éxito en hacking experto según AISI, y en su pasada por diversos sistemas actuales ha encontrado miles de zero-days, algunos de ellos viviendo por más de una década sin ser detectados.

Para poder dimensionar el alcance de esta nueva creación, y mientras se mantiene a la bestia encerrada, Anthropic entregó acceso limitado a través del denominado "Project Glasswing" a Amazon, Apple, Microsoft, Cisco, Palo Alto, CrowdStrike, Linux Foundation y Broadcom.

El hecho de que aparezcan expertos intentando vender soluciones a mansalva, tan pronto salió la noticia de Mythos, es, por decir lo menos, absurdo. La prestación instantánea con olor a humo no es algo nuevo: surgió con la transformación digital, donde todos eran expertos; luego se autoproclamaron especialistas —con la misma rapidez de la IA— en la Ley de Delitos Informáticos, en la Ley de Datos, en la Ley Marco de Ciberseguridad, y hoy en todo tipo de IA, la actual y la que no se ha creado aún. Algunos incluso saben de computación cuántica; seguramente son parte del Project Glasswing, solo que aún no se han enterado.

El problema no es de quien intenta vender servicios. Es de quien termina comprándolos. En este mercado he visto de todo: posts que ofrecen "Protocolos anti-Mythos en 7 pasos" a menos de 48 horas de conocida la noticia, cursos relámpago online mediante suscripciones de "defensa contra IA adversarial", certificaciones creadas por el propio prestador del servicio sin apego a norma nacional ni internacional, e informes copypasteados de empresas internacionales que no aplican ni de cerca al modelo de negocio que se está evaluando.

Por eso el llamado de urgencia del experto de turno es peligroso. Varios señalan haber descifrado incluso la fórmula para proteger a la empresa en caso de que Mythos —u otro monstruo de tales magnitudes bíblicas— sea liberado. Lo cual, por cierto, es absurdo: si voy a visitar a mi médico de cabecera y me diagnostica una enfermedad recién descubierta en el viejo continente, al menos tendré que pedir dos opiniones más antes de saber si el diagnóstico es real o si mi galeno está simplemente delirando.

El delirio por el uso de la IA, sin los prompts de rigor y sin la experiencia y competencias necesarias, puede llevar al experto de temporada alta a convencerse de que efectivamente tiene las soluciones para todo, sin aplicar protocolos, sin controlar sesgos o sin siquiera pagar la versión premium de la IA que utiliza. Todo lo cual puede tener consecuencias graves si nuestro querido director asume que el especialista con más likes en LinkedIn tiene la razón, y resulta ser solo el emperador sin ropa caminando por las vías digitales de la red.

Tener la debida preparación es clave, y eso puede venir por dos vías: que el Directorio cuente en sus filas con un miembro con las competencias necesarias, o que solicite oportunamente la opinión de un especialista con trayectoria verificable. En ambos casos, el objetivo es el mismo: detectar cuándo el servicio ofrecido no puede ser real, o cuándo al menos la forma en que se vende es discutible.

Todos sabemos que los ejecutivos comerciales venden soluciones que el área TI ni siquiera ha imaginado implementar. La función del Director es analizar las promesas de servicios y someterlas a su debido criterio. Ser consciente del riesgo no necesariamente es igual a estar preparado para enfrentarlo, por lo cual debe recurrirse a los especialistas de rigor; eso es lo que el deber de cuidado exige.

En Chile la legislación es clara. El deber de cuidado y la responsabilidad fiduciaria del Directorio se encuentran establecidos en el artículo 41 de la Ley 18.046. Pero, además, se rigen por diversos cuerpos legales, sobre todo en materias de ciberseguridad, que acarrean no solo responsabilidad del director, sino también de la persona jurídica, como es el caso de la Ley 21.595 sobre Delitos Económicos. Es decir: lo que el Directorio autoriza, el Directorio responde.

A lo anterior se suma que estamos ad portas de la entrada en vigencia plena de la nueva Ley de Protección de Datos Personales, con todas las consecuencias que acarrea su nuevo estatuto: entre ellas, las altas multas que aplicará la Agencia de Protección de Datos Personales.

El caso es simple y claro: aprobamos el servicio de un (in)experto, sin tomar ni medir los riesgos que implica; se genera una vulnerabilidad; se explota; se roban datos; se introduce malware o ransomware; se publican bases de datos de empleados, financieras o de clientes; se aplican multas, y la empresa pierde consecuentemente su prestigio reputacional, además de las demandas que se activen como consecuencia de lo anterior.

Lo que está ocurriendo con esta nueva fase de la IA ya ha ocurrido antes, con distintas formas y nombres. Ya nos hemos visto enfrentados a algo que no conocemos. Por ejemplo, el caso de Spectre/Meltdown: vulnerabilidades de seguridad que permitían a procesos no privilegiados acceder a datos confidenciales almacenados en la memoria del sistema, que afectaron principalmente a los procesadores Intel y a algunos procesadores ARM, y que siguieron siendo explotadas aun cuando ya existían correcciones disponibles para mitigar el problema.

Sin ser el relacionador público de la marca, puedo señalar que aquí Anthropic actuó bien: como un "director antifrágil" corporativo, deliberó en serio, aceptó el costo, coordinó con AISI y con el Ejecutivo de EE.UU. Ahora bien, Anthropic no encerró del todo a la bestia, sino que la desplegó de forma controlada a ocho partners técnicos y al gobierno estadounidense, lo que no está exento de lecturas comerciales y geopolíticas.

El criterio estuvo puesto en que sí se negó el acceso al público. Esa decisión, con todos sus matices, es exactamente el contramodelo del LinkedInero: impulsivo, ansioso por figurar y por vender a cualquier costo, sin dimensionar que puede vender tal vez una primera y única vez. Recordemos: al prestigio se sube por las escaleras, pero se baja en ascensor. Lo que costó años en construirse, se pierde en un instante.

Si la tecnología sin gobernanza es negligencia, la implementación de IA sin control fiduciario es una abdicación de funciones. Para los Directorios que aún intentan descifrar la "caja negra", la respuesta no es la parálisis, sino la imposición de límites técnicos y legales infranqueables.

Frente a modelos cuya velocidad de evolución supera nuestra capacidad de respuesta regulatoria —es decir, todo lo relacionado hoy con tecnología—, el Directorio debe exigir cuatro pilares de control inmediato:

• Auditoría de Capacidades Inéditas (Emergent Abilities): Exigir reportes técnicos que no solo midan el rendimiento esperado, sino que busquen activamente comportamientos no programados. Si la IA desarrolla capacidades para las que no fue entrenada, la gobernanza debe detectarlo antes que el mercado o el atacante.

• Cláusula de Staged Exposure (Exposición Escalonada): Prohibir el despliegue masivo inmediato. Todo sistema de IA debe superar fases de confinamiento (sandboxing) con métricas de seguridad obligatorias antes de interactuar con datos críticos o clientes reales.

• Human-in-the-Loop con poder de veto: El rol humano no puede ser un "visto bueno" administrativo. Debe existir una figura con autoridad técnica y legal suficiente para vetar o desconectar el sistema si los umbrales de riesgo se ven comprometidos, sin represalias operativas.

• Protocolo de Pausa Fiduciaria: Establecer un mecanismo de "freno de emergencia" automático ante saltos de categoría de riesgo —por ejemplo, ante la detección de alucinaciones críticas o fugas de datos—. Hoy, frente a la IA, debemos precisamente tomar espacio y tiempo para analizar, observar y luego decidir; eso equivale a una buena gobernanza digital.

Y tú, en tu próximo Directorio, ¿vas a firmar la certeza que te vendió LinkedIn, o la deliberación que te exige la ley? Porque Mythos sigue encerrado. Pero la firma del acta del Directorio, no.

 
Juan Pablo López es director de Ciberlegal.
 
También te puede interesar:
El riesgo de los detectores de IA en las Facultades de Derecho: la prohibición no es una opción
La independencia del Delegado de Protección de Datos: una definición pendiente en Chile
El uso de IA y el abuso del consumidor
 

artículos relacionados


podcast Idealex.press