fbpx
sábado, 23 de noviembre de 2024

internacional

Algoritmos éticos: ¿cuáles deben ser los estándares para que una IA tome la decisión?

Transparencia, respeto a la privacidad y no discriminación son las normas mínimas que se buscan cumplir dentro de las empresas de inteligencias artificiales, pero a nivel legislativo se sigue buscando resolver cómo enfrentar en la práctica los desafíos futuros que estas tecnologías traerán a la sociedad.

- 19 diciembre, 2022

El uso de inteligencia artificial para la toma de decisiones en sistemas complejos es una práctica creciente, tanto en organismos públicos como en el sector privado. Sin embargo, con esta tecnología también surgen riesgos, incluyendo los sesgos que pueda tener una inteligencia artificial (IA) al interactuar con los datos, motivo por el que diversas organizaciones han realzado la necesidad de algoritmos éticos.

Para el investigador del Programa de Derecho, Ciencia y Tecnología de la Universidad Católica de Chile, Sebastián Dueñas, esta discusión nace a fines del 2000, producto de la automatización de la toma de decisiones en varias instituciones, cuando se empiezan a levantar temas de discriminación, sobrerrepresentación de ciertos grupos en materia laboral, comercial e incluso de la industria de transporte.

Sebastián Dueñas

La discusión ha llevado a que en los últimos años países y empresas desarrollen normativas con las que guiar el desarrollo ético de IA. ¿Algunos ejemplos en la región? La Estrategia Nacional de Inteligencia Artificial de Perú o la Misión de Expertos en Inteligencia Artificial en Colombia, que buscan averiguar la manera de implementarla sin que se vulneren los derechos de las personas.

Dueñas plantea que los estándares mínimos que deben existir dentro de normativas éticas son que los algoritmos sean transparentes, resguarden la privacidad de las personas y estén libres de sesgos.

“Existe una bajada técnica en el tema: deben poder ser auditables para saber por qué se toman ciertas decisiones, para poder ver qué datos se utilizaron en la toma de decisiones, si eran datos correctos o si venían con algún sesgo anterior”, explica.

Una iniciativa que busca la implementación de algoritmos adecuados es la que realiza el Laboratorio de Innovación Pública de la Escuela de Gobierno de la Universidad Adolfo Ibáñez (GobLab UAI) de Chile. Denominada Proyecto Algoritmos Éticos. Entre sus objetivos busca apoyar a Chile Compra en la creación de estándares y requisitos éticos para las compras públicas de servicios de empresas desarrolladoras de IA.

“Entre 2016 y 2019 hubo una proliferación de marcos éticos que no estaban aterrizando en la aplicación práctica y no se testeaban con quienes debían implementarlo”, comenta María Paz Hermosilla, directora del organismo.

La especialista se refiere así a la necesidad de poner a prueba las normas éticas en escenarios reales y de esa forma descubrir qué significan en la realidad ciertos ideales como la integración de trasparencia en un algoritmo.

Una cuestión de poder

María Paz Hermosilla

Antes de ayudar a un organismo público a integrar los servicios de una empresa desarrolladora de IA se le consulta a la institución si realmente necesitan este tipo de herramienta para resolver su problema o si hay una mejor manera de hacerlo. Ese es un aspecto central para entender cómo se piensa un algoritmo ético.

¿Un ejemplo? Si la ciudadanía tiene problemas para encontrar información en el sitio web de una organización, la institución puede contratar un diseñador web en vez de implementar un chatbot.

“Es un tema de proporcionalidad, ya que los organismos públicos tienen que encontrar las mejores formas para cumplir su misión y por eso en el caso de la Superintendencia de Medio Ambiente, que tiene 250 en todo Chile y cuenta con 16.000 unidades fiscalizables, una IA que permita fiscalizar más rápido los bosques y reducir el gasto de tiempo es adecuado”, explica la directora de GobLab UAI.

A pesar de ello, el uso de inteligencia artificial en organismos públicos tiene riesgos que se deben considerar a la ahora de establecer normas éticas de uso. Uno de ellos es que, a diferencia de los humanos, una IA es mucho más fácil de engañar. Y eso es precisamente lo que ocurrió en el última mundial de futbol, en Qatar, donde varios asistentes usaron maquillaje para evitar ser detectados por los software de reconocimiento fácil presentes en las cámaras de seguridad.

Otro aspecto que se debe considerar es el empleo que haga la IA de los datos privados que obtuvo de forma legítima, ya que un algoritmo puede ser utilizado para imputar características y preferencias a individuos o grupos de personas, pero estos resultados pueden estar errados.

Matías Aránguiz

“La pregunta es si estos tienen una forma de rectificar la información y cuáles son los efectos que eso tendría en mí, como en casos donde se predice erróneamente si soy un buen pagador o no para darme un crédito o se me quiere hacer la asignación de un beneficio social”, señala Matías Aránguiz, subdirector del Programa de Derecho, Ciencia y Tecnología de la Universidad Católica de Chile.

Dentro de la discusión académica sobre algoritmos éticos, asegura, no se le está dando la importancia necesaria a debatir sobre la representación que las IA pueden generar en grupos sociales, ya que generalmente se analizan las situaciones en que individuos específicos son identificados erróneamente.

“Casos así generan discriminación, pero de forma grupal, y las personas que no saben cuáles son estas características difícilmente podrán defenderse o no sabrán que se les ha asignado una característica por medio de un sistema automático”, añade.

Y existe un tercer elemento que, plantea Sebastián Dueñas, tampoco se está considerando: la necesidad de un enfoque interdisciplinario, imprescindible si se va a aumentar el uso de IA en organismos públicos.

“Los ingenieros y los expertos en ciencias sociales están trabajando de manera separada, por lo que hay una falta de comunicación entre las ciencias sociales y las ciencias más duras; recién estamos viendo aproximaciones de ese tipo incipientemente en regulaciones, como las de New York”, indica.

Algoritmos éticos a través de la ley

Los estándares éticos operan en forma paralela a las exigencias de una legislación, la cual de por sí se encuentra todavía en pañales en Latinoamérica, afirma Oscar Montezuma, socio de Niubox Legal, y agrega: “No somos un lugar que desarrolle masivamente soluciones de software, sino que usamos en gran medida soluciones de IA desarrolladas en otros países, pero lo que sí existe, son políticas públicas”.

¿Qué modelos de legislación hay? Son varios los modelos a nivel global, entre ellos, el francés, donde por medio del artículo 33 de su ley de reforma a la justicia se prohibió el uso de inteligencia artificial para la predicción de sentencias y litigios. Las penas para los abogados que incumplan esta normativa puede llegar a los 5 años de cárcel.

Oscar MontezumaÓscar Montezuma

“Creo que no deberíamos irnos al extremo de Francia, sino que debemos incorporar a las IA en nuestras actividades de gobierno en la medida en que hagan nuestro trabajo más eficiente y justo. El reemplazo de criterio humano no me parece una realidad, ya que no están habilitados para operar completamente de forma autónoma”, dice el abogado.

Otra propuesta destacada por los especialistas es la del sandbox regulatorio en España, donde los proyectos de las empresas de IA son puestas a prueba con las de los reguladores, permitiendo un aprendizaje mutuo.

“La empresa se ve beneficiada, porque puede asegurar que sus modelos de negocios funcionan dentro de un marco legal, y el regulador se beneficia al descubrir las principales amenazas y puntos que deberían tocarse en la legislación”, dice Dueñas y da otro ejemplo: la legislación de Nueva York sobre los sesgos presentes en algoritmos de contratación, que consiste en determinar si la cantidad de personal recién contratado tiene una cierta concordancia con el total existente y si es que ese índice también se relaciona con los datos históricos de personal.

“En la ley local 144 se usa un ratio de 4/5, entonces, si es que el algoritmo da resultados fuera de este ratio en materia de contratación se efectúa una auditoría para descubrir el porqué, llegando incluso a solicitar que este proceso se haga de nuevo por un humano”, explica.

¿Cuál es el objetivo final de esta práctica? No dejar el control del desarrollo normativo en temas de inteligencia artificial solo a las empresas, las que pueden tener metas que no se alinean con el cumplimiento de estándares éticos, y que se integren con las mejores prácticas.

“En principio, debería ser complementaria, ya que la regulación estatal crea derechos, mecanismos de defensa y métodos probatorios, mientras que las normas éticas de la industria establecen estándares de actuación, los que son necesarios, ya una regulación estatal siempre se va a quedar corta con los riesgos de una u otra industria o tecnología”, asegura Aránguiz.

 
También te puede interesar:
La ética en los tiempos de la cyberlaw
Derecho laboral y algoritmos de contratación
Inteligencia artificial y abogacía en Perú

 

artículos relacionados


podcast Idealex.press