fbpx
jueves, 18 de abril de 2024

legaltech

DoNotPay: ¿Un robot abogado?

La plataforma se suma a las inteligencias artificiales que prometen eficacia para los estudios de abogados. A diferencia de ChatGPT, posee un sistema especializado en temas jurídicos para ser utilizado en casos simples.

- 24 marzo, 2023

¿Aceptarías que una inteligencia artificial (IA) te defienda en un juicio? Esta es la propuesta del “primer robot abogado del mundo” llamado DoNotPay, fundado en 2015 como un servicio para ayudar a sus clientes a combatir casos poco complejos y que hoy enfrenta una demanda por ejercer la abogacía sin licencia.

En enero de este año, el CEO de la empresa, Joshua Browder, anunció, a través de Twitter, que pagarían a cualquier persona 1 millón de dólares si participaba en un caso frente a la Corte Suprema de Estados Unidos, donde mediante audífonos, repetía exactamente los argumentos que el robot, conectado a través de un teléfono, le dictara.

Este caso marcaría un precedente histórico en la materia de no ser por la demanda colectiva presentada por la firma de abogados Edelson, con sede en Chicago, la cual argumentó que: “Desafortunadamente para sus clientes, DoNotPay no es en realidad un robot, ni un abogado ni un bufete de abogados. DoNotPay no tiene un título en Derecho, no está prohibido en ninguna jurisdicción y no está supervisado por ningún abogado”.

En su web, DoNotPay afirma que ayudará a “luchar contra las corporaciones, eliminar la burocracia y demandar a cualquiera con solo apretar un botón”, servicio que no se cumplió según el demandante respaldado por la firma, Jonathan Faridian, quién utilizó la aplicación para redactar documentos que había comprado a “un abogado competente para proporcionarlos”, pero de los que obtuvo resultados “deficientes”.

En contra, la respuesta de Browder fue que “no iba a ser intimidado por el abogado de demandas colectivas más rico de Estados Unidos” refiriéndose a Jay Edelson, el fundador de la firma. “Las únicas personas que ganan son los abogados, así que quería hacer algo al respecto, construyendo el abogado robot DoNotPay para empoderar a los consumidores para que se enfrenten a las corporaciones por su cuenta”, afirmó.

Abrir el melón

La discusión por la licencia de abogado de DoNotPay no es la única polémica relacionada con inteligencia artificial, anteriormente ChatGPT, desarrollado por la empresa OpenAI, aprobó un exámen de Derecho hecho por la Universidad de Minnesota. Tiempo después, el juez colombiano Juan Manuel Padilla confirmó una decisión por un caso que buscaba exonerar un joven autista de deudas de salud, en la que incluyó el trabajo de ChatGPT en sus argumentos.

Oscar Montezuma DoNotPayOscar Montezuma

Para Oscar Montezuma, socio de la firma Niubox Legal, “no debemos ignorar ni prohibir la tecnología, tenemos que examinarla y considerar que los cambios sean graduales, sino puede irse en contra”. Recordando el caso de Francia, donde una universidad prohibió el uso de ChatGPT.

Al mismo tiempo, se refirió al caso de Colombia diciendo: “¿Por qué está mal que un juez utilice tecnología para apoyarse en la resolución de un caso? No está mal, el tema es que se use responsablemente porque está sujeta a fallos, falsos positivos y errores, ya que finalmente quien está detrás del diseño es un ser humano”.

Con esto último coincide el abogado senior Javier Cuairán García, de la firma Ontier, quién afirma que “DoNotPay puede analizar casos relativamente sencillos a día de hoy, en los que no cabe extraerse más de una conclusión de esa discusión jurídica”.

Javier Cuairán DoNotPayJavier Cuairán García

“Aquí hay un gran temor, ellos (DoNotPay) han abierto el melón de que en esta profesión, como muchas otras, se reducirá el numero de empleados, es algo que no podemos parar ni debemos oponernos, ahora necesitamos dar un vuelco, un cambio, para entender cuál es el valor añadido que tenemos como humanos”, comentó.

Responsabilidad robótica

El rápido posicionamiento de la IA en estudios jurídicos también abre preguntas sobre las regulaciones y nuevas oportunidades a tener en cuenta, Cuairán advierte que: “Hay temas en los que responden de una manera errónea, porque todavía no están bien diseñados. Al final, la pregunta que se le hace a estos sistemas es lo fundamental, porque para que te de una respuesta perfecta, hay que reformular una pregunta que funcione de la mejor manera”.

Esta necesidad se ha visto reflejada en la aparición de la denominada “legal prompt engineering”, una especialización de la ingeniería que ofrece la capacidad de generar conversaciones más fluidas en los sistemas de IA, lo que se había vuelto necesario con la aparición de nuevas versiones como GPT-4, la última versión lanzada recientemente por OpenAI.

Al mismo tiempo, entran nuevos factores para la regulación de estos sistemas, especialmente considerando su participación en juicios. Sebastián Dueñas, investigador del Programa de Derecho, Ciencia y Tecnología de la Universidad Católica de Chile plantea: “En el caso de usar DoNotPay, es algo muy discutible a quién imputarle responsabilidad por negligencia durante el ejercicio legal”.

Sebastián Dueñas

“¿Sería la empresa? ¿Los programadores? ¿Quiénes certificaron el estándar incumplido? Esa asignación de responsabilidad, que es algo que está reglamentado para los abogados que ejercen, no está claro para un sistema autónomo”, y agrega, “incluso resolviendo eso, hay que tener en cuenta si puede funcionar de manera autónoma o si siempre deberíamos estar supervisando el sistema”.

Por último, Dueñas comenta que ya existen tareas especificas que están siendo realizadas por sistemas autónomos. Es el caso de la firma internacional Allen & Overy, quienes integraron en febrero una plataforma de IA llamada Harvey, la que internamente les ayuda a redactar textos legales.

 

También te puede interesar:
—”Inteligencia Artificial en la justicia penal chilena”
—”¿Es ChatGPT una herramienta útil para los abogados?”
—”Auditorías algorítmicas y el control sobre las IA”

 

artículos relacionados


podcast Idealex.press