"No puedo dejar de pensar en ellos cuando veo que ciertas oficinas de abogados se precian de no conocer límites,...
¿Controlar o incentivar? la regulación de la inteligencia artificial
“La regulación de la IA es un desafío complejo y actual que requiere un análisis que permita un equilibrio entre la innovación, la competencia y la protección de los derechos individuales y la igualdad de oportunidades”.
Carlos Beraún - 23 junio, 2023
La inteligencia artificial (IA) ha emergido como una de las tecnologías más transformadoras de nuestro tiempo. Sin embargo, su rápido avance plantea desafíos regulatorios significativos al punto que existen voces que promueven una regulación a dicho fenómeno, entre ellos curiosamente están diversas personalidades vinculadas a la tecnología como Brad Smith (CEO de Microsoft), Sam Altman (Ceo de OpenAI) y Elon Musk (dueño de Tesla y SpaceX).
Sin perjuicio que actualmente existe una ola regulatoria que cada vez más cobra más fuerza, vale la pena preguntarse, ¿es necesario y urgente crear un cuerpo regulatorio nuevo para la IA? Lo que alguna vez Frank Easterbrook llamó —citando a Gerhard Casper, ex decano de la Universidad de Chicago— un “Derecho del Caballo” (Law of Horse) para el derecho al ciberespacio, pareciera que toma una vez más relevancia para el caso de la IA.
Ciertamente, la IA presenta actualmente algunos desafíos legales que deben ser abordados como, la manipulación de la información mediante el uso de deep fakes, cuando los medios de comunicación emplean esta tecnología sin la cautela y resguardos necesarios; la determinación de la titularidad de obras generadas mediante estas herramientas gracias a la combinación de obras existentes (por ejemplo, obras literarias mediante modelos de lenguaje como GPT-4 o una obra plástica con el uso de GoArt); las afectaciones a la privacidad al emplear el reconocimiento facial para la vigilancia ciudadana; la privacidad y seguridad de datos personales y sensibles, pues la IA a menudo requiere grandes cantidades de datos para funcionar de manera efectiva.
Si los sistemas de IA no están adecuadamente protegidos, pueden ser vulnerables a ataques maliciosos y a la exposición de información confidencial. Otro tema es que la confianza excesiva en los sistemas de IA puede llevar a una dependencia de ellos. Si estos sistemas cometen errores o fallan, especialmente en áreas críticas como la medicina o la seguridad, puede haber consecuencias graves. Hace poco vimos el ejemplo de un abogado en EE.UU que basó su defensa en información proporcionada exclusivamente por la IA, descubriéndose luego que esta información era errónea.
La cuestión es si se necesita crear un cuerpo normativo autónomo para ellos (“Derecho del Caballo”) o si las reglas generales existentes en el derecho civil, propiedad intelectual, derecho administrativo y la normativa de datos personales son suficientes para afrontar dichos desafíos. Esta segunda opción, incluso con posibles cambios o ajustes normativos, permitiría abordar directamente estos riesgos de tal manera que se evite una regulación excesiva que obstaculice la innovación y la competitividad.
No debemos olvidar que una regulación excesivamente restrictiva también puede tener efectos contraproducentes, generando barreras innecesarias para la innovación y la competencia. Dicho esto, es fundamental encontrar un equilibrio adecuado entre la protección de los derechos fundamentales, la promoción de la competencia y la estimulación de la innovación. La regulación de la IA debe ser lo suficientemente sólida como para evitar abusos y discriminación, pero también lo suficientemente flexible como para no sofocar la creatividad y la competitividad empresarial.
En esa línea, la UE dio el primer paso al emitir recientemente una versión preliminar de la Ley de Inteligencia Artificial, que busca establecer un marco normativo para abordar los riesgos asociados con la IA.
Uno de estos es riesgos es el inaceptable: esto incluye la manipulación cognitiva de comportamientos en grupos vulnerables, la puntuación social basada en el comportamiento o características personales y la identificación biométrica en tiempo real y a distancia, todos estos prohibidos de forma absoluta. Una de las excepciones es el uso de los sistemas de identificación biométrica a distancia “a posteriori”, para perseguir delitos graves y solo con aprobación judicial.
Existe la categoría de alto riesgo: estos se dividen en dos categorías. La primera incluye aquellos utilizados en productos sujetos a la legislación de seguridad de la UE, como juguetes, aviación, automóviles, dispositivos médicos y ascensores. La segunda categoría engloba sistemas de IA pertenecientes a ocho áreas específicas que deben registrarse en una base de datos de la UE, como gestión de infraestructuras críticas, educación, empleo, aplicación de la ley, entre otros. Estos sistemas de alto riesgo deben evaluarse antes de su comercialización y a lo largo de su ciclo de vida.
Finalmente, el riesgo limitado: se permite el empleo de estos sistemas, pero con requisitos mínimos de transparencia a cumplir para que los usuarios puedan tomar decisiones informadas (por ejemplo, ChatGPT). Deben ser conscientes de cuándo interactúan con la IA, especialmente en sistemas que generan o manipulan contenidos de imagen, audio o video, como deep fakes.
Esta norma podría ser el punto de partida para un enfoque armonizado a nivel global, a fin de evitar las barreras regulatorias entre países. La colaboración y el intercambio de mejores prácticas entre la UE y EEUU podrían ayudar a establecer estándares comunes que promuevan la competencia y la confianza en los sistemas de IA a nivel internacional.
En conclusión, la regulación de la IA es un desafío complejo y actual que requiere un análisis que permita un equilibrio entre la innovación, la competencia y la protección de los derechos individuales y la igualdad de oportunidades. La colaboración y la armonización a nivel global son elementos clave para abordar este desafío de manera efectiva y promover un entorno empresarial justo y competitivo en la era de la IA.
Carlos Beraún es abogado por la Universidad Nacional Mayor de San Marcos y asociado senior en Diez Canseco Abogados.
También te puede interesar:
— Inteligencia Artificial en la justicia penal chilena
— Responsabilidad civil e inteligencia artificial: un desafío del futuro
— Inteligencia artificial y abogacía en Perú