Aplicaciones y sitios web en Estados Unidos, China y Chile muestran el uso que se le puede dar a los...
Automatización y predicciones: las herramientas que impulsan el uso de la inteligencia artificial en la Justicia
Estos elementos se instalan como la punta de lanza de una tecnología que aún está en desarrollo y que cuenta con detractores que cuestionan su uso prematuro.
17 marzo, 2021
-El libro “Cibercrimen III: Inteligencia Artificial. Automatización, algoritmos y predicción en el derecho penal y procesal penal” fue presentado recientemente en la actividad “Jornadas Internacionales. Inteligencia Artificial aplicada al proceso penal”. El encuentro fue organizado por el departamento de Derecho Penal de la Facultad de Derecho de la Universidad Austral de Argentina y tuvo entre sus expositores a los directores de la publicación, Juan Corvalán y Daniela Depuy.
El texto es una recopilación de distintos artículos que analizaron el impacto que ha tenido la aplicación de inteligencia artificial (IA) a diferentes procesos del sistema de Justicia y al área penal en específico. Además, se abordan los usos maliciosos que se le pueden dar a estas herramientas, los desafíos legislativos que presenta y los beneficios que reportaría su buena utilización en el ámbito jurídico.
En palabras de Juan Corvalán, director del IALAB de la Facultad de Derecho de la Universidad de Buenos Aires, en este libro intentaron «matizar mucho el impacto de esta tecnología en el derecho en general y (…) en algunas cuestiones del derecho penal”.
El aporte que entrega esta recopilación, añadió, se podría sintetizar como la necesidad de comprender a la IA como un tecnología de propósito general, “que no es una sola cosa, sino que es un conjunto de cosas o de técnicas combinadas con algoritmos, con lógicas informáticas clásicas, pero modernas». Y en ese contexto, agregó, «entender que no podemos reducir el desafío de la Inteligencia Artificial a Netflix y su porcentaje de acierto”.
Automatización y predicciones
Otro de los puntos a destacar del trabajo es la propuesta de construir una forma en que la automatización y las predicciones de la IA se inserten en la investigación, en la forma de tomar decisiones en el Derecho, ya sea a través de operadores judiciales o por medio de un asistente inteligente para un abogado o abogada que está tratando de argumentar un caso.
Para Corvalán sería conveniente investigar en esta línea si los profesionales de esta área podrían “tener un asistente inteligente que pueda automatizar o eventualmente predecir cuestiones vinculadas a historias jurisprudenciales o valoración de la prueba, entre otros aspectos”, porque para él estos elementos son “los lados luminosos que podrían aportar muchísimo a todo el ecosistema jurídico. Ahora las posibilidades para automatizar son exponenciales y aparecen lo que llamamos ‘oportunidades de predicción’, que se combinan con las predicciones que hacen los cerebros humanos”.
El tercer aporte de este libro sería la profundización en los problemas respecto al Small Data y su vinculación a las ventajas del Machine Learning: “Entrenar datos con Small Data es mucho más parecido a curar un Excel que a hacer Deep Learning con Big Data; es mucho más fácil hacer la trazabilidad, el control y curar los datos cuando trabajamos en entornos de Small Data que en los de Big Data”, añadió.
Compatibilidad entre IA y derechos humanos
Posteriormente Daniela Dupuy, Máster en derecho, abogada de la Unidad Fiscal Especializada en Delitos y Contravenciones Informáticas de Buenos Aires (Argentina) y directora también de los libros Cibercrimen I y II abordó lo que a su juicio son los desafíos de la IA.
En este contexto, comentó que a pesar de que a esta tecnología se la puede usar con con buenos y malos propósitos, es importante rescatar que lo positivo de estas herramientas es que “justamente los hechos punibles son investigados con el auxilio de la IA». Y aquí, dice, «nuestro desafío es utilizarla para equilibrar razonablemente la persecución penal con la utilización de este tipo de herramientas, respetando los derechos fundamentales”.
Es así como el desarrollo de la Inteligencia Artificial para Daniela Depuy tiene que ser compatible con un modelo de derechos humanos íntegro, por lo que es necesario impulsar una regulación “que incorpore ciertos principios. Es decir, hacer bien robusto el sistema de protección de derechos fundamentales”.
De esta manera, la inclusión de la experiencia de las personas en estas tecnologías es irremplazable, por lo que la IA nunca debería actuar por sí sola. ”Siempre debe estar de la mano de la inteligencia humana. Creo que la potencialidad de ambas es lo que nos va a permitir lograr excelentes resultados”, dijo la abogada.
Incorporación precipitada
Otro de los expositores fue el abogado español y doctor en Derecho Carlos María Romeo, quien comentó el artículo que aportó a la investigación, titulado “Inteligencia artificial, predictividad y justicia penal”. La publicación aborda la sentencia del Tribunal Supremo del Estado de Wisconsin (EE.UU.), que en 2013 ocupó el sistema productivo COMPAS para sentenciar a 6 años de presidio a Eric Loomis, capturado bajo sospecha de estar involucrado en un tiroteo.
No obstante, en 2018 se conoció que el sistema analizaba 137 aspectos de cada imputado, constatándose que el nivel de acierto en las predicciones de esa IA no era superior al de seres humanos y que se evidenciaban graves errores.
Romeo manifestó sus discrepancias fundamentadas en diversos motivos respecto a la sentencia que emitió el tribunal norteamericano en esa oportunidad. “No rechazo la utilización de la inteligencia artificial en tantos ámbitos de la vida social como se está introduciendo. Pero, en el caso de la administración de Justicia, creo que por lo menos respecto a este programa, sin conocer otro que le haya superado, hay dudas de la fiabilidad del sistema inteligente utilizado”, sostiene.
Y, por ende, considera precipitada la incorporación de este tipo de “instrumentos en los procesos judiciales de carácter penal en la fase actual de su desarrollo”.
Puedes revisar la presentación en su totalidad, en el siguiente enlace.
También te puede interesar:
— Juan Corvalán y PretorIA: “La tecnología a veces es la única solución a la tutela de derechos”
— ¿Una política nacional de Inteligencia Artificial?
— Cibercrimen, evidencia digital y litigación penal