"La nueva ley no deroga expresamente esta facultad de la SUBTEL, pero sí da a la nueva Agencia amplias facultades...
El riesgo de los detectores de IA en las Facultades de Derecho: la prohibición no es una opción
“Más allá del problema técnico, hay un error de fondo que merece ser nombrado con claridad. El desafío central que enfrentan hoy las Facultades de Derecho no es cómo evitar que sus estudiantes usen inteligencia artificial. El desafío es cómo prepararlos para ejercer en un mercado donde la IA ya es infraestructura, no novedad”.
Gonzalo Álvarez - 30 abril, 2026
Imagina que un estudiante de Derecho entrega su trabajo o evaluación escrita, y días después recibe una notificación: el profesor le indica que un detector de inteligencia artificial lo ha marcado como sospechoso. El docente implacable le advierte que una eventual sanción académica se asoma en el horizonte. El problema no es que el estudiante haya hecho o no trampa. El problema es confiar en una herramienta ciegamente y aplicar otros mecanismos o sedosos complementarios, ya que, como veremos, este tipo de detector puede estar equivocado —y lo estará casi la mitad de las veces.
Gonzalo ÁlvarezEsta escena no es hipotética. Es el resultado predecible de una práctica que se extiende con inquietante velocidad en las Facultades de Derecho de la región: la prohibición tajante del uso de inteligencia artificial en evaluaciones, respaldada casi dogmáticamente por herramientas de detección cuya fiabilidad técnica no justifica —ni de lejos— las consecuencias disciplinarias que gatillan.
El Laboratorio de Innovación e Inteligencia Artificial de la Universidad de Buenos Aires (IALAB-UBA), dirigido por el jurista Juan G. Corvalán, publicó uno de los estudios más rigurosos disponibles en español sobre esta materia. Sus conclusiones son contundentes: cuando se sometieron textos redactados íntegramente por humanos a los principales detectores de IA del mercado, solo el 51,52% fue correctamente identificado como humano. El resto —el 48,48%— fue marcado como presuntamente generado por inteligencia artificial. Casi una de cada dos veces, el detector estaba equivocado.
El mismo estudio añade un hallazgo igualmente perturbador: tras aplicar técnicas de "humanización" a textos generados por IA, esos mismos detectores los clasificaron como humanos en el 64,52% de los casos. La herramienta falla en ambas direcciones, con proporciones que ningún sistema de garantías académicas debería tolerar.
La evidencia internacional confirma y profundiza este cuadro. Un estudio publicado en Advances in Physiology Education (2024) documentó el caso de un docente universitario que señaló a 17 estudiantes por supuesto uso de IA en sus trabajos; tras revisión manual, 15 de los 17 resultaron ser falsos positivos. Los afectados eran desproporcionadamente hablantes no nativos del inglés —lo que sugiere que los detectores no solo son imprecisos, sino que además operan con sesgos que penalizan a quienes escriben en un segundo idioma.
Herramientas como ZeroGPT presentan tasas de falsos positivos de hasta el 16,9%. La precisión global de los detectores más utilizados oscila entre el 60% y el 90% según investigaciones independientes: un rango que en cualquier otro contexto de evaluación profesional sería inaceptable.
¿El resultado? Que la prohibición respaldada por estas herramientas no es una política académica: es una ruleta rusa con consecuencias disciplinarias reales. ¿El error conceptual? Confundir prohibición con pedagogía.
Más allá del problema técnico, hay un error de fondo que merece ser nombrado con claridad. El desafío central que enfrentan hoy las Facultades de Derecho no es cómo evitar que sus estudiantes usen inteligencia artificial. El desafío es cómo prepararlos para ejercer en un mercado donde la IA ya es infraestructura, no novedad.
Los estudios de abogados más competitivos de la región han integrado herramientas de análisis documental, redacción asistida, revisión contractual y predicción de resultados judiciales en sus flujos de trabajo habituales. El Reglamento de Inteligencia Artificial de la Unión Europea (Reglamento 2024/1689), vigente desde agosto de 2024, exige explícitamente el desarrollo de competencias de AI literacy —alfabetización en inteligencia artificial— en todos los sectores profesionales, incluido el jurídico. Un futuro abogado que egrese sin saber usar estas herramientas no es más íntegro: es menos competitivo. Y una facultad que lo forme así no está protegiendo estándares académicos; está entregando al mercado un egresado con un hándicap artificial.
La diferencia entre el uso legítimo y el uso fraudulento de la IA no está en la prohibición, sino en el diseño pedagógico de la evaluación. Un trabajo que puede ser reemplazado enteramente por un prompt de ChatGPT no estaba midiendo pensamiento jurídico en primer lugar.
Hay una tercera dimensión que las facultades parecen estar ignorando: el riesgo jurídico que asume la institución cuando sanciona a un estudiante basándose en un detector con tasas de error cercanas al 50%.
En cualquier procedimiento disciplinario que exija garantías mínimas de debido proceso, utilizar como prueba determinante una herramienta con esa tasa de falsos positivos es procesalmente temerario. La pregunta que deberá responder eventualmente la institución no es si el estudiante usó IA, sino si el instrumento de prueba era suficientemente fiable para fundar una sanción. Y la respuesta técnica disponible hoy es que no lo es.
Las Escuelas de Derecho que lideran la discusión a nivel global —Stanford, Harvard, la Universidad de Melbourne— no están debatiendo si prohibir la IA. Están construyendo marcos de uso ético y supervisado que enseñan a los estudiantes cuándo, cómo y con qué criterio emplear estas herramientas, y cómo documentar ese proceso. Esa es la discusión que corresponde tener.
Es urgente que los Decanatos y Consejos de Facultad establezcan, antes del próximo ciclo académico, políticas institucionales claras sobre el uso de inteligencia artificial: políticas que no descansen en la prohibición irreflexiva ni en detectores técnicamente insuficientes, sino en la definición precisa de lo que constituye autoría académica en el siglo XXI, en la capacitación del cuerpo docente y en procedimientos de verificación con validez para un eventual recurso disciplinario.
No basta con instalar el problema en el aula; hay que resolverlo en los reglamentos. La pregunta es: ¿Estamos formando abogados capaces de pensar con las herramientas de su tiempo, o estamos castigando que lo intenten?
Gonzalo Álvarez es abogado, doctor en Derecho y académico de la Universidad Central.
También te puede interesar:
— Chief AI Legal Officer (CAILO): cuando la inteligencia artificial exige su propio abogado
— Ciberseguridad en la era de la IA: lecciones globales y hoja de ruta para Chile
— Legal Prompting 2.0: la nueva fórmula para consultas legales eficaces en ChatGPT
