La filtración de información del Caso Audios y el proceso de investigación ética contra el abogado del imputado, llevó a...
Estados Unidos busca establecer un régimen de licencias para IA
Especialistas se cuestionan si un organismo independiente, único, que se encargue de autorizar la diversidad de softwares desarrollados con inteligencia artificial en los distintos mercados es la opción correcta.
29 septiembre, 2023
-Durante el mes de septiembre, los senadores Richard Blumenthal y Josh Hawley miembros del Senate Judiciary Subcommittee on Privacy, Technology, and the Law del Senado de los Estados Unidos presentaron un marco para una futura Ley de IA, que lleva siendo trabajada desde hace unos años, con el precedente del Blueprint for an AI Bill of Rights, que establece principios para la protección de los derechos de los ciudadanos ante el desarrollo de inteligencia artificial.
El Bipartisan Framework for U.S AI Act presentado por los dos senadores establece un plano de desarrollo para la legislación en inteligencia artificial, en los que se detallan objetivos que debe cumplir una regulación en la materia como: la responsabilidad jurídica por daños de las empresas que desarrollen IA; defender la seguridad nacional y la competencia internacional; promover la transparencia; proteger a los consumidores y a los niños.
También el Bipartisan Framework propone la creación de un régimen de licencias para modelos de IA que las empresas busquen sacar el mercado, el cual será supervisado por un organismo federal independiente y nuevo creado cuando se promulgue la nueva ley. Richard Blumenthal dijo a CTInsider que espera tener lista una “propuesta legislativa detallada” respecto a este tema para el Congreso a finales de 2023.
Sebastián Dueñas, investigador del Programa de Derecho, Ciencia y Tecnología de la Universidad Católica de Chile, considera como primer desafío para este tipo de legislación el que se defina de forma clara que tipo inteligencias artificiales requerirán una licencia para entrar al mercado: “¿Queremos que se licencie chatbots básicos que puedo hacer yo en mi casa?, ¿o la idea sería centrarse solo en sistemas más complejos utilizados en vehículos autónomos y sistemas financieros, de riesgo más alto? Debe definirse de forma clara el alcance de la regulación”.
Dueñas añade que también se debe aclarar si los productos hechos a base de una tecnología de I.A o la propia tecnología base en sí misma serán los que requieran una licencia y si habrá exigencias distintas de acuerdo a la tarea que desarrolla el software: “Distintas industrias van a requerir distintos estándares de licenciamiento, en industrias más críticas se será más estricto”.
La diversidad de inteligencias artificiales en mercados distintos abre la pregunta sobre si un organismo, independiente, único, que se encargue de licenciar todas las IAs usadas, es la opción correcta. “Yo creo que puede ser un poco complejo; de hecho, un beneficio de un sistema de supervisores específicos como la Comisión para el Mercado Financiero en materia financiera o el Servicio Nacional del Consumidor en materia de consumo, es que tienen más claro cuáles son los riesgos del uso de IA en esas industrias específicas”, opina Dueñas.
En cualquier caso, el investigador añade que también existen los «foundation models», IAs que no están diseñadas para una tarea específica, pero pueden ser adaptados para una, “por lo que una agencia independiente que se encargue de otorgar las licencias puede hacer que exista un estándar parejo en las distintas industrias que utilizan este tipo de software”, explica.
Riesgos y futuro
Eduardo Linares, abogado responsable del departamento de Nuevas Tecnologías & Compliance de Ontier, afirma que en la regulación presente en América Latina sobre protección de datos y privacidad no se aborda en su totalidad las implicaciones específicas de la inteligencia artificial avanzada, por lo que la creación de un régimen de licencias en la región —similar a lo que se planea en EEUU— sería un gran desafío: “Requeriría la colaboración de gobiernos, empresas, expertos en tecnología y grupos de interés, con el propósito de diseñar y establecer un marco regulador adecuado”.
Respecto de otros desafíos que una agencia de este tipo tendrá que enfrentar, Sebastián Dueñas considera que primero tendrá que realizar actualizaciones regulatorias constantes dado el propio desarrollo y mejora de las inteligencias artificiales: “Los estándares de un mes atrás o de un año atrás pueden terminar siendo insuficiente para concretar el objetivo de administrar este sistema de licencias”.
Además, el investigador apunta a que de un país que establezca este sistema de licencias tiene que asegurarse de que los requisitos sean lo suficientemente asequibles para evitar crear barreras de entrada a la industria a startups y pymes: “Si son muy altas se beneficia solo a los actores más grandes de la industria, que cuentan con la espalda para pagar estas licencias y cumplir con los requisitos que imponen. Esto ya se ha visto en la Unión Europea donde se han establecido estos conformity assessments para la aprobación de un producto de IA, por lo que empresas tecnológicas de pequeño y medio tamaño han hecho presión para que sean más baratas estas barreras, porque no les permite desarrollar y termina concentrando el mercado en unos pocos actores”.
Un ejemplo sobre el efecto de estas barreras se puede ver con la aplicación Studio Bot de Google, un asistente para codificación impulsado por IA, el cual no está disponible en el Reino Unido ni la Unión Europea. “Esto se debe a que la regulación que tienen es demasiado pesada, por lo que Google corto por lo sano y decidió no lanzar la aplicación en esos países para no arriesgarse a multas altas”, explica Dueñas.
Eduardo Linares, por otro lado, considera que lo ideal es que exista un balance entre regulación e innovación: “La clave reside en encontrar un equilibrio entre la regulación necesaria para asegurar la seguridad y la ética en la IA y la promoción de la innovación y la competencia en este ámbito. Cualquier enfoque debe ser minuciosamente evaluado y ponderado para abordar estas inquietudes de manera eficaz”.
El abogado añade que, además de profesionales y técnicos con conocimientos de IA, una institución de este tipo también requerirá tener otros especialistas: “Estos expertos pueden asegurar que se respeten los valores éticos y los derechos humanos en el desarrollo y aplicación de la IA”.
También te puede interesar:
— ¿Controlar o incentivar? la regulación de la inteligencia artificial
— Algoritmos éticos: ¿cuáles deben ser los estándares para que una IA tome la decisión?
— Cambios en la abogacía, en tiempos de algoritmos