fbpx
jueves, 5 de febrero de 2026

columnas

La IA no es eficiencia automática, es un amplificador

“Hay un mito que nos está costando caro: creer que la IA es eficiencia automática. La IA es un amplificador. Amplifica lo que ya se hace bien y deja en evidencia lo que se hace mal. Si una operación legal se basa en urgencias, conocimiento tribal, procesos o flujos no documentados y criterios implícitos, la IA no va a “arreglar” ese desorden; lo va a escalar.”.

Andrés Jara - 5 febrero, 2026

Las áreas legales en Latinoamérica están en una posición incómoda: según estudios recientes, al menos en Chile, los equipos legales no superan el 30% de adopción de inteligencia artificial. A nivel regional, nuestras observaciones confirman esta realidad: incluso en países conservadores, el uso se encuentra aún prohibido expresamente por las organizaciones.

inteligencia artificialAndrés Jara

La reacción típica es buscar culpables en la herramienta: se alega que falta presupuesto y claridad de proveedores, o que aún no está “madura”. Pero esa explicación es cómoda y, sobre todo, incompleta. Con todo, las empresas siguen exigiendo a las áreas legales eficiencia y productividad, de la mano con un incremento sostenido en la carga laboral de esta función, proveniente de cambios normativos y apetito empresarial por el crecimiento y desarrollo de negocios. Expansión versus contracción (o statu quo) es una fórmula difícil de administrar para muchos líderes de equipos legales.

El problema de fondo no es tecnológico: es de enfoque y orden. A eso suma que no sabemos qué herramientas, con qué fin y aplicación, son las que mejor resolverán esta tensión. Las noticias de nuevas soluciones, algunas especializadas y otras mucho más genéricas, pero de igual o mayor impacto, fluyen día a día. Los nuevos productos nacen en apenas horas, por lo que tomar la decisión de comprometer recursos y esfuerzos en una única solución, aquella para la que nos alcanza el presupuesto, se hace imposible. La reacción natural es la inacción, y con ella viene la incapacidad de evolucionar, aprender y lograr impactos reales.

La IA no se adopta comprando licencias; se adopta cuando un equipo legal sabe para qué la necesita, qué problema quiere resolver y cómo va a medir el resultado. Hoy, demasiadas conversaciones siguen atrapadas en “qué herramienta elegir”, cuando la discusión correcta debería estar en procesos, datos e impacto.

A nivel global, el uso de IA generativa crece rápido, pero una parte importante ocurre como pruebas aisladas o uso individual. Lo preocupante es que, si la IA entra por la puerta de atrás, sin criterios de riesgo, sin gobernanza y sin un estándar mínimo de trabajo, no reduce riesgos ni incrementa productividad, sino que amplifica los riesgos y destruye valor. Un abogado puede ganar velocidad con un prompt, pero si no hay controles, trazabilidad y revisión, lo que se acelera también es el error. Y cuando el error llega a un contrato, a un informe o a una decisión, el costo no es tecnológico, es reputacional, y eso tiene una consecuencia directa y dolorosa en el negocio.

Con la vista puesta en 2026, la diferencia vendrá desde los equipos que pasen de la curiosidad a la operación. Y operar significa tres cosas poco glamorosas, pero decisivas: estandarizar lo que hoy es artesanal, convertir parte del trabajo en datos comparables e instalar gobierno (reglas, responsabilidades, capacitación y control), todo en pos de lograr excelencia operacional. El orden correcto es personas, procesos, datos y tecnología, aun cuando carezca de mucho atractivo. Si lo invertimos, terminamos con un showroom de herramientas y cero impacto en el negocio.

Hay un mito que nos está costando caro: creer que la IA es eficiencia automática. La IA es un amplificador. Amplifica lo que ya se hace bien y deja en evidencia lo que se hace mal. Si una operación legal se basa en urgencias, conocimiento tribal, procesos o flujos no documentados y criterios implícitos, la IA no va a “arreglar” ese desorden; lo va a escalar.

La salida no es frenar, es ordenar. Si hoy una gerencia legal quisiera llegar bien a 2026 sin megaproyectos, yo partiría con disciplina y foco en 90 días.

Primero, elegir un caso de uso que duela y sea frecuente: contratos repetitivos, revisión de cláusulas, respuesta a consultas internas, investigación jurídica estructurada o due diligence acotadas.

Segundo, comprometerse con tres métricas simples: tiempo de ciclo (de solicitud a entrega), tasa de retrabajo (cuántas veces vuelve) y riesgo capturado (cláusulas críticas detectadas, escalamiento oportuno, incidentes evitados). Menos adjetivos, más antes/después.

Tercero, una gobernanza mínima viable: política de uso, niveles de confidencialidad, revisión humana obligatoria en outputs críticos y registro de decisiones cuando el impacto es alto. La confianza no nace de prometer magia; nace de diseñar controles y responsabilidades claras. Una manera también es hacer staff augmentation con capacidad diseñada, como lo llamamos en Alster, en donde se construyan brazos extendidos y ya entrenados que apoyen en este desafío, cada vez más frecuente en mercados desarrollados, potenciando la capacidad de un ALSP con la necesidad de la inmediatez requerida por los equipos legales internos.

Cuarto, capacitación aplicada al trabajo real, no un “curso de IA” genérico. Entrenar a los equipos en cómo pedir, cómo verificar, cómo contrastar y cómo documentar lo que se decide. En legal, la velocidad sin trazabilidad es solo un riesgo más rápido.

Quinto, elegir una Estrella del Norte, una métrica principal que guíe prioridades: si cada unidad mide algo distinto, la adopción se vuelve moda; si todos empujan el mismo indicador, se vuelve capacidad.

Con ese piso, la conversación cambia. Ya no es “qué herramienta compramos”, sino “qué proceso intervenimos”, “qué decisión mejoramos” y “cuánto ganamos o evitamos perder”.

Ahí es donde la IA deja de ser juguete y se vuelve infraestructura. Porque, al final, la IA en legal trata de competitividad, control y calidad de servicio para el negocio. Y en 2026, eso va a separar a los equipos que viven apagando incendios de los que diseñan la arquitectura para que el incendio no ocurra. La tecnología llegó; lo que falta es método.

 
Andrés Jara es abogado y socio fundador de Alster Law.
 
También te puede interesar:
La selección invisible de la inteligencia artificial
Chief AI Legal Officer (CAILO): cuando la inteligencia artificial exige su propio abogado
La inteligencia artificial no reemplaza, acelera
 

artículos relacionados


podcast Idealex.press