La filtración de información del Caso Audios y el proceso de investigación ética contra el abogado del imputado, llevó a...
Sesgos, autorregulación y marco regulatorio, los dilemas de la IA en el mundo
¿Se deben crear leyes específicas o es preferible que sean genéricas para que apliquen a futuras tecnologías? ¿Es posible que los desarrolladores establezcan sus propias reglas o la opción es que dependan de un organismo estatal para la supervisión de buenas prácticas? Un grupo de especialistas exploró el tema y, aunque con diferencias, arribó a conclusiones que permiten enmarcar el actual y futuro debate.
25 noviembre, 2022
-Las consecuencias económicas producto de la pandemia y las protestas de granjeros debido a una serie de medidas en el sector agropecuario para limitar la producción de polución causaron estragos en el gobierno holandés durante 2021. Y así, el gabinete completo del primer ministro de ese país, Mark Rutte, debió renunciar a sus cargos.
Pero esas no fueron las únicas razones que llevaron a la dimisión masiva; por el contrario, el caso que definitivamente llevo a su caída fue la controversia causada por algoritmos que fueron utilizados por la administración para intentar predecir quiénes serían propensos de defraudar a los subsidios de jardines infantiles, fallando estrepitosamente en sus cálculos al utilizar datos arbitrarios para ello, como la doble nacionalidad.
Esto llevó a que personas migrantes de Turquía, Marruecos y Europa del Este fueran identificadas erróneamente como autoras de tal delito y multadas a pagar miles de euros al Estado, sin forma de apelar a la sanción ante la Administración Tributaria y Aduanera del país (Belastingdienst).
Pero luego el caso dio un vuelco y la Autoridad Neerlandesa de Protección de Datos (Autoriteit Persoonsgegeven) determinó que el algoritmo era sesgado, discriminatorio y empleaba datos personales que no estaba autorizado a utilizar, por lo que multó a la Belastingdienst con€ 3.700.000 (USD 3.855.906) por los daños causados a quienes fueron falsamente acusados: 26.000 familias en total.
El impacto mediático de esta situación llevó a que Rutte y su gabinete renunciara el 15 de enero de 2021, aunque el 17 de marzo del mismo año el ex primer ministro fue reelegido.
Las miles de personas que fueron falsamente acusadas “tuvieron que devolver mucho dinero, porque los jardines son carísimos”, señaló Ricardo Baeza-Yates, director de investigación del Institute for Experiential AI de la Northeastern University, en Estados Unidos, y del Observatorio Público para la Transparencia e Inclusión Algorítmica (OptIA), de Chile.
“Este es el caso más grave de impacto político de un algoritmo, uno solo, en un gobierno completo”, añadió durante su presentación en un evento sobre Inteligencia Artificial (IA) responsable y los desafíos para una sociedad más justa e inclusiva.
Y así, el principal foco del encuentro, organizado por la Universidad Católica de Chile, fueron los conflictos éticos que se presentan en el funcionamiento de las inteligencias artificiales, los problemas que los desarrolladores no toman en cuenta durante su desarrollo y las posibles soluciones para la creación de algorítmicos que funcionen sin violar los derechos de las personas, como ocurrió en Holanda.
Lo primero que se tiene que comprender es que la IA no es un remplazo de los humanos y, en consecuencia, estas no se deben humanizar. Por esa razón, aseguró Baeza-Yates, no le gusta hablar de conceptos como Inteligencia Artificial “ética”, “justa” o “confiable”, ya que “la confianza no solamente es un tema entre personas, sino que también ahí estamos poniendo el peso del problema en ustedes, en los usuarios, y no en los que diseñan y construyen estas herramientas”.
En cambio, es preferible utilizar el concepto de “responsable”, ya que aunque se trata de una característica humana, legalmente se aplica también a las empresas.
A este concepto se suma otra idea clave: las inteligencias artificiales no procesan los datos de la misma forma que lo hacen las personas y, por el contrario, para aprender los humanos tienen que extraer y filtrar datos, llegando incluso a olvidar información.
“Esto no es fácil para las máquinas, ya que no se puede aprender lo que no está en los datos y aquellos no capturan todo”, dijo y agregó: “Los datos son muchas veces una aproximación muy mala de algún problema, sobre todo en temas de justicia y educación, en cualquier cosa individual, y también está el problema de que el contexto no está abordado”.
Detectando y evadiendo sesgos
“Hay muchos algoritmos y esto lo vemos, por ejemplo, en el comercio electrónico, donde todos los días están sesgadamente tomando decisiones y haciendo ciertas cosas que perjudican a los consumidores, y frente a eso no hay un organismo encargado de poder fiscalizar si funcionan bien y de forma justa”, comentó María Jose Martabit, profesora de Derecho en la Universidad Católica y CEO de Theodora.
Para Baeza-Yates, el problema es como “una maldición”, ya que los sesgos culturales de los programadores entran en los algoritmos reproduciéndolos y evitando que reflejen información real. A eso se suma que como los sistemas no se preguntan si lo recibido es correcto, en algunos casos aquello “aumenta el sesgo, como ocurre en muchas de las cosas que internet amplifica, por ejemplo, movilizaciones políticas o noticias falsas, y si eso ocurre no le podemos echar la culpa a los datos, sino a quienes los usaron sin revisar”.
Pero los algoritmos también pueden ser una oportunidad para evitar los prejuicios. Según Martabit, su emprendimiento Theodora construyó una IA que se dedica específicamente a buscar elementos discriminatorios en documentos y, en una etapa posterior, en imágenes y videos.
De esta forma se podrían buscar, por ejemplo, sesgos religiosos, étnicos o de características personales determinadas, y “en Chile el más relevante es el de género, que aparece en 80% de los documentos”. Por eso se hace fundamental, dijo, que se invierta en inteligencias artificiales que contribuyan al bienestar social.
Una idea que comparte Baeza-Yates, para quien se trata de un problema que puede ser utilizado como una vía para aprender.
“Los algoritmos pueden tener sesgos, pero no tienen ruido, es decir, no toman decisiones como los seres humanos, por lo que si tienes dos problemas que son iguales la respuesta va a ser siempre la misma. Me gustaría que nos enseñaran a ser más justos, no que ellos decidan, pero que nos ayuden, como un Pepe Grillo que me avise cuando estoy siendo manipulado o estoy siendo manipulador”, afirmó.
¿Leyes genéricas o específicas?
Se trata de un conflicto que afecta a todo el mundo e incluso el año pasado la Unión Europea empezó a discutir normas de inteligencias artificiales para evitar que estas quebranten la legislación vigente de sus países.
En España el tema se ha tratado en la Ley 15/2022, cuyo artículo 23 establece que los algoritmos usados en la toma de decisiones de organismos públicos deben tener criterios de minimización de sesgos, transparencia y rendición de cuentas. Aquí, sin embargo, aparece un nuevo dilema: cómo deben ser esas reglamentaciones.
Una normativa especial para la tecnología de inteligencia artificial sería, a juicio de Baeza, un error. ¿La razón? Porque establece fecha de caducidad a las leyes y lo que se tiene que regular no son avances específicos, sino el problema, es decir, crear estándares generales para que cualquier desarrollo que se realice posteriormente deba seguirla.
“Es difícil hacer algo que funcione en cada tecnología y dure en el tiempo, porque aunque lo volvamos genérico, eso sería mejor que tener que cambiar la regulación cada 10 años porque se vuelve obsoleta. Tiene que ser como los derechos humanos, que no importe qué es lo que se utilice, mientras no se rompan los derechos de las personas”, añadió.
En Chile se han desarrollado iniciativas gubernamentales en torno a las inteligencias artificiales, como la Política Nacional de IA, del Ministerio de Ciencia, Tecnología, Conocimiento e Innovación; la ley de transformación digital, que busca que tanto los documentos como los procesos administrativos de las instituciones públicas se digitalicen, y, además, se está intentando actualizar la ley de protección de la vida privada.
“Cuando me hablan de inteligencia artificial responsable sin una ley de datos personales me entra un poco de pánico, porque es información circulando sin un marco normativo adecuado”, comentó Alejandro Barros, presidente de OptIA, y apuntó a la ley de delitos informáticos como un ejemplo importante de la debilidad de la legislación frente a la tecnología: fue aprobada en 1992 y tomó 30 años actualizar.
En esa época, explica, “no había redes sociales, por lo tanto, cuando salió ya estaba obsoleta”.
Sin embargo, difiere de Baeza-Yates sobre la amplitud que debe tener una ley de estas características, ya que no aplicarla a una tecnología específica tendría igualmente riesgos: “Hay una tensión en la forma de regular, ya que si se hace de manera genérica es un espacio fructífero para los abogados, por el hecho de que se puede interpretar de cualquier forma”.
Normas autoimpuestas y creación de estándares
Organismos no gubernamentales y compañías también pueden ser parte del proceso para la implementación de estándares éticos en torno a las inteligencias artificiales.
Francisca Ortega, gerente de asuntos públicos de AmChamChile, contó que durante un viaje de investigación para la organización conoció a una empresa que desarrolló un marco de principios para guiar futuros desarrollos de inteligencia artificial y lo primero que hicieron fue establecer que debía ser “socialmente beneficioso”.
Luego vinieron otros elementos, como “evitar creer, crear o reforzar prejuicios injustos; ser construido y probado para la seguridad; rendir cuenta a las personas; incorporar principios de diseño de privacidad; mantener un alto nivel de excelencia científica y estar disponibles para usos que estén de acuerdo a estos principios”, explicó.
Otros estándares son aquellos creados por la profesora de la Clarkson University y miembro de la Association for Computing Machinery (ACM), Jeanna Matthews, quien junto a Ricardo Baeza-Yates produjo para esta última organización un listado de nueve principios para el desarrollo de sistemas algorítmicos responsables, entre lo que se incluyen transparencia, rendición de cuentas y pruebas de competencia.
“Estamos pidiendo a los desarrolladores que presenten pruebas suficientes de la legitimidad y fiabilidad de los sistemas”, dijo y explicó: “Es diferente que pedir a los usuarios que depositen una confianza ciega en los sistemas”.
También buscan que se realice una evaluación de los posibles daños a la población que puedan generar estos mecanismos mediante “procesos para recopilar y compartir información con personas y comunidades afectadas a lo largo del ciclo de vida del sistema, no solo una vez”.
La autorregulación sería entonces un elemento central del debate, sin embargo, no lo es todo. Para Cristina Pombo, senior advisor del Banco Interamericano de Desarrollo, “la única forma de garantizar que el uso y la gobernanza de la inteligencia artificial reflejen los valores de la sociedad será conectando a esas empresas privadas que producen herramientas de IA con los organismos del sector público, para que puedan hacer un tipo de enforcement con un lenguaje abierto, honesto y compartido, contando con herramientas que les aseguren a los ciudadanos un desarrollo y utilización responsable de la tecnología”
Y el objetivo de esa alianza, planteó, debe ser apoyar mecanismos que tengan objetivos humanos y responsable con el medioambiente: “La supervisión intersectorial debe comenzar con la transparencia y el acceso a información significativa, así como con la capacidad de exponer los daños”.
También te puede interesar:
— Inteligencia artificial y abogacía en Perú
— Responsabilidad civil e inteligencia artificial: un desafío del futuro
— Consciencia e Inteligencia Artificial