fbpx
viernes, 10 de enero de 2025

columnas

IA en Derecho: un llamado a la precisión, conocimiento digital y la ética profesional

“La deontología profesional exige que los abogados verifiquen la información antes de incluirla en documentos oficiales. Ignorar este deber no solo compromete el caso en cuestión, sino que también podría conllevar sanciones disciplinarias y legales”.

Gonzalo Álvarez - 9 enero, 2025

El reciente caso en Chile de una primera eventual sanción disciplinaria a un abogado por presentar citas de supuesta jurisprudencia ficticias generadas mediante ChatGPT ha encendido las alarmas sobre el uso indiscriminado de herramientas de inteligencia artificial (IA) en el ejercicio jurídico. Este caso no solo expone los límites actuales de los Modelos de Lenguaje de Gran Escala (LLM, por sus siglas en inglés), sino que también plantea interrogantes éticas y profesionales sobre cómo los juristas deben abordar la integración de la IA en su práctica diaria.

ética profesionalGonzalo Álvarez

El problema se presenta con el concepto de “alucinaciones” en Modelos de Lenguaje. Estas “alucinaciones” son respuestas inexactas o completamente inventadas que los LLM generan debido a su diseño estadístico. Estos modelos, entrenados en grandes conjuntos de datos, intentan completar patrones lingüísticos, lo que no siempre garantiza la veracidad de la información. En el ámbito legal, donde la precisión y la fiabilidad son fundamentales, estas “alucinaciones” pueden traducirse en citas falsas de jurisprudencia, legislación inexistente o conclusiones erróneas, erosionando la confianza en el sistema jurídico.

Un ejemplo paradigmático es el caso del abogado chileno, quien presentó un escrito judicial basado en referencias inexistentes proporcionadas por una IA generativa. Este tipo de incidentes no solo afecta la credibilidad del profesional implicado, sino que también subraya los riesgos de confiar ciegamente en estas herramientas sin un control humano adecuado.

Ya puedo imaginarme, algunos colegas abrumados enviando memos a sus equipos legales prohibiendo el uso de ChatGPT o de cualquier otra IA generativa, o enviando por grupos de WhatsApp mensajes con la expresión ¡Te lo dije! Yo sabía que no se podía confiar en las máquinas.

Pero más allá de lo tragicómico, resulta obligatorio preguntarse: ¿existe alguna forma de eliminar estas alucinaciones? ¿Es posible utilizar la IA de manera segura en la práctica jurídica sin correr este tipo de riesgos? ¿O realmente nos encontramos ante un escollo insalvable en la utilización de tecnología en el análisis jurídico? Nada de eso. Todo lo contrario, en la actualidad, ante el vertiginoso avance de los grandes modelos (LLM) de AI y del legal prompt engineering, ya existen maneras y formas eficientes de solucionarlo.

No obstante, antes de continuar con las explicaciones técnicas al efecto, es importante subrayar el ejercicio del Derecho se basa en principios éticos como la veracidad, la diligencia y la responsabilidad hacia los clientes y la sociedad. El uso de IA en el ámbito legal debe alinearse con estos valores. No basta con adoptar herramientas tecnológicas; es imperativo que los abogados comprendan sus limitaciones y riesgos, y que implementen medidas para evitar errores graves.

La deontología profesional exige que los abogados verifiquen la información antes de incluirla en documentos oficiales. Ignorar este deber no solo compromete el caso en cuestión, sino que también podría conllevar sanciones disciplinarias y legales. Por lo tanto, la capacitación y regulación en el uso de IA en el derecho son esenciales para evitar futuros incidentes.

Ahora sí, lo prometido, ¿cuáles son estas soluciones tecnológicas que prometen devolvernos el alma al cuerpo? Me refiero a las técnicas de inteligencia artificial conocidas como Fine-Tuning y la Recuperación Aumentada de Datos.

El «Fine-Tuning» (ajuste fino) es una técnica de aprendizaje automático que adapta un modelo de IA preentrenado para tareas específicas. Utilizando datos especializados, otorga un mejor contexto a las máquinas para no equivocarse. En el ámbito legal, esto significa entrenar un LLM con bases de datos validadas que incluyan legislación, jurisprudencia y doctrina relevante. Este proceso no solo mejora la precisión del modelo, sino que también minimiza las “alucinaciones”, ya que el modelo trabaja con información ajustada al contexto.

Por ejemplo, un modelo ajustado específicamente para el sistema legal chileno podría reconocer la relevancia del Código Civil y citar sentencias reales del Tribunal Constitucional. Este refinamiento permitiría a los abogados obtener respuestas confiables y adaptadas a sus necesidades, reduciendo riesgos y optimizando tiempo. Nosotros, en la consultora Tech-Law AI ya ocupamos esta técnica en nuestros agentes y automatizaciones con óptimos y seguros resultados.

Otra solución clave es la «Recuperación Aumentada de Datos» (RAG) en sus siglas en inglés Retrieval-Augmented Generation, para complementar las respuestas de la IA con fuentes externas. Así, al combinar el poder lingüístico de los LLM con bases de datos externas validadas. Cuando un usuario realiza una consulta, el sistema RAG no se limita a generar una respuesta basada en patrones aprendidos, sino que accede a fuentes externas en tiempo real para recuperar información precisa.

En el ámbito legal, un sistema RAG podría conectarse a repositorios como la base de datos de jurisprudencia del Poder Judicial chileno, asegurando que las referencias provengan de fuentes verificadas. Por ejemplo, ante una consulta sobre un fallo emblemático, el sistema buscaría directamente en la base de datos oficial y proporcionaría la información exacta, eliminando la posibilidad de citas inventadas. Nuestra experiencia con RAG ha sido muy favorable a la hora de precisar las respuestas (output) y reducir las alucinaciones del algoritmo.

Por ejemplo, tenemos una IA gratuita llamada «Examen GradoGPT» que ya ha sido utilizada por más de 10.000 usuarios y estudiantes. Esta IA especializada que instruye y prepara para afrontar el tan temido examen de grado en derecho ha sido perfeccionada con RAG.

La integración de la IA en el sector legal tiene un enorme potencial para democratizar tanto el acceso a la justicia como el mercado legal mismo. Sin embargo, tales beneficios solo se lograrán si se implementan principios éticos y estándares de calidad en la adopción de la IA. La comunidad jurídica chilena, con un marco normativo robusto y profesionales comprometidos con la excelencia, está en una posición privilegiada para liderar esta revolución tecnológica.

Para garantizar el uso ético y efectivo de la IA en el sector legal, es posible vislumbrar algunas medidas tales como: «Validación de fuentes», esto implica que toda información generada por IA debe ser verificada antes de ser utilizada en documentos legales. «Capacitación constante», se debe tomar conciencia de que los abogados de hoy no tienen habilidades digitales nativas, por lo que se debe instituir programas de formación sobre el uso técnico y responsable de IA, además de establecer protocolos claros para su implementación en el ejercicio profesional. «Supervisión humana permanente», el reglamento europeo sobre IA, regula expresamente que los resultados de los modelos de IA deben ser revisados por un profesional capacitado, garantizando así su adecuación y precisión.

Adoptar soluciones como el Fine-Tuning y la Recuperación Aumentada de Datos, junto con protocolos de verificación y formación continua, permitirá que la IA sea un valioso aliado y no una fuente de riesgo. Con transparencia, debida capacitación, responsabilidad y ética profesional, la tecnología puede convertirse en un pilar fundamental para lograr un sistema legal más eficiente, confiable y, en última instancia, más justo para toda la sociedad.

 

Gonzalo Álvarez Seura es abogado y doctor en Derecho, director ejecutivo de Tech-Law.ai y académico de la Facultad de Derecho y Humanidades de la Universidad Central de Chile.

 
También te puede interesar:
La Ley de Resiliencia Cibernética: un paradigma de seguridad digital obligatoria
En tierra derecha hacia la contratación del futuro
Deepfakes en Chile: cuando la justicia enfrenta la manipulación digital
 

artículos relacionados


podcast Idealex.press