fbpx
viernes, 28 de noviembre de 2025

internacional

Una IA me hizo comer cerdo crudo ¿Quién asume la responsabilidad por el consumidor?

La evolución continua del comportamiento, la alta complejidad técnica, la interconexión permanente a la red, la opacidad del aprendizaje automático y profundo y la necesidad de mantenimiento continuo, con actualizaciones y reentrenamientos, son algunas de las características de los algoritmos que dificultan la aplicación de normas de consumo pensadas para un mundo analógico.

- 28 noviembre, 2025

Si un restaurante empleara inteligencia artificial para obtener una receta de cerdo que indique un tiempo de cocción inferior al necesario y, como consecuencia, una bacteria afectara la salud de un comensal, ¿quién debería asumir la responsabilidad?

Este ejemplo fue planteado por Francisca Barrientos Camus, investigadora de la Facultad de Derecho de la Universidad Autónoma de Chile, al referirse a los desafíos normativos que enfrenta la protección al consumidor cuando intervienen sistemas automatizados. Según la académica, el problema central surge porque los regímenes de responsabilidad por productos atribuyen obligaciones a un sujeto claramente identificable —fabricante, productor o importador—, lo que no ocurre con tecnologías capaces de operar sin una figura humana directa.

Francisca Barrientos Camus

“Nuestra Ley de Protección de los Derechos de los Consumidores (N.º 19.496), en su artículo 1 Nº2, define al proveedor como persona natural o jurídica, clasificación que también adoptan Argentina, Brasil, Perú, Uruguay, Ecuador, Paraguay y Bolivia. Tal vez la única referencia que podría facilitar una interpretación distinta es el Estatuto Colombiano, que menciona al proveedor sin circunscribirlo expresamente a una persona”, explicó Barrientos.

Ese enfoque choca con la lógica de sistemas autónomos que toman decisiones propias. Sebastián Bozzo Hauri, decano de la Facultad de Derecho de la misma universidad, explicó que los atributos técnicos de los algoritmos avanzados dificultan su fiscalización bajo las normas actuales de consumo.

Entre esas características se encuentran la evolución continua del comportamiento, lo que modifica las expectativas razonables respecto al desempeño del sistema, así como la alta complejidad técnica, que combina hardware y software con múltiples actores involucrados, lo que vuelve difícil identificar la causa directa de un daño.

Además, se refirió a la interconexión permanente a la red, que procesa información no prevista al diseñar el producto y generando resultados emergentes al interactuar con otros sistemas y a la opacidad del aprendizaje automático y profundo, que limita la capacidad de explicar el proceso decisional y obstaculiza reconstruir el origen de la falla.

Finalmente, el profesor mencionó que el comportamiento de los algoritmos varía tras el despliegue, tensionando modelos jurídicos basados en decisiones humanas fijas y, por ende, hizo hincapié en la necesidad de un mantenimiento continuo, con actualizaciones y reentrenamientos. Ahora bien, si fueran realizados por terceros, incluso podrían alterar el desempeño inicial al intervenir sobre la tecnología ya operativa.

“La defectuosidad algorítmica suele ser emergente y dinámica. Los problemas pueden originarse en datos de entrenamiento deficientes, etiquetados erróneos, sesgos que inducen decisiones discriminatorias o inexactas. Además, los daños potenciales son diversos. Desde lesiones físicas por fallas en un piloto automático, perjuicios económicos por un scoring incorrecto, afectaciones morales o reputacionales debido a resultados generativos inadecuados, e incluso pérdidas derivadas de actualizaciones mal ejecutadas que paralizan servicios esenciales”, explicó Bozzo.

¿Cómo atrapas legalmente a una no-persona?

Francisca Barrientos abordó distintas alternativas propuestas para enfrentar las particularidades de los sistemas inteligentes, como otorgarles personalidad jurídica y cubrir los daños mediante seguros o, simplemente, imputar las consecuencias directamente a quienes corresponda.

“En todos estos casos debe considerarse que la inteligencia artificial es creada, desarrollada, entrenada e implementada por personas o entidades concretas. Existen compañías que poseen los derechos sobre estos sistemas y, en consecuencia, cumplen una función de prestación de servicios dirigida a los consumidores”, explicó.

Sebastián Bozzo Hauri

No obstante, la académica advirtió que, desde el punto de vista normativo, la IA no puede ser tratada como un sujeto de derechos cuando ejecuta decisiones autónomas mediante órdenes o prompts sin intervención humana, lo que se vuelve especialmente complejo si el responsable del algoritmo no corresponde a una persona jurídica.

“El desafío interpretativo radica en encontrar soluciones adecuadas para estos casos específicos, donde el desarrollador o implementador no tiene personalidad jurídica y es necesario redefinir el concepto de persona. Una vía posible, si se sale del derecho del consumo, es acudir a la responsabilidad civil del derecho común”, dijo, y agregó que la discusión podría avanzar hacia el reconocimiento de un derecho al control humano o de un principio ético de intervención humana en la responsabilidad, el cual eventualmente podría integrarse al marco de protección al consumidor.

Por su parte, Sebastián Bozzo destacó que el artículo 23 de la Ley de Protección de los Derechos de los Consumidores puede servir de fundamento para abordar estos casos, ya que establece que incurre en infracción el proveedor que, actuando con negligencia en la venta de un bien o prestación de un servicio, cause perjuicios al consumidor debido a fallas o deficiencias del mismo. Según el decano, dicha disposición podría aplicarse conceptualmente a sistemas de IA.

Derechos de los ConsumidoresPatricia López Díaz

El punto crítico, según Barrientos, es determinar si se configura una relación de consumo. En el ejemplo del restaurante y la receta de cerdo, esta se daría entre quien ofrece el servicio y el comensal; de igual manera, en una empresa de arriendo de vehículos con piloto automático, el vínculo se establece entre esa compañía y el usuario, sin que los programadores del algoritmo formen parte de la ecuación contractual.

“Al no existir un nexo contractual directo, estaríamos ante un régimen de responsabilidad por productos defectuosos bajo las reglas de la responsabilidad extracontractual del derecho común. Sin un estatuto específico, surge el reto de definir qué se entiende por ‘producto defectuoso’, si buscamos aplicar ese régimen a tecnologías basadas en inteligencia artificial. Ello implicaría volver a criterios de atribución por culpa, con todas las dificultades que conlleva probar culpa ajena, presunta, probada, propia, o por el hecho de las cosas”, puntualizó.

La profesora también señaló una alternativa legislativa interna. En Chile existe un proyecto de ley sobre inteligencia artificial, actualmente en segundo trámite constitucional, inspirado en la normativa de la Unión Europea. Este texto incorpora un enfoque basado en riesgos, principios de dignidad humana y respeto a los derechos fundamentales. “Lo interesante es que remite a la Ley de Protección de los Derechos de los Consumidores, lo que permite la concurrencia normativa, integrando estos sistemas dentro de categorías de riesgo que habilitan su regulación conjuntamente con la normativa de consumo”, sostuvo.

Aun así, la profesora advirtió que la propia regulación europea ha recibido críticas por haber quedado desfasada ante el acelerado desarrollo de inteligencias artificiales: “La regulación fue hecha considerando modelos como ChatGPT 2 y ya vamos en la quinta edición”.

La protección ante el acoso publicitario generado por IA

Un ámbito especialmente sensible para los consumidores en el uso de inteligencia artificial es la seguridad de sus datos personales y la eventual manipulación de su conducta. Los algoritmos procesan información entregada por los usuarios y luego la utilizan para amplificar publicidad o reproducir sesgos mediante su funcionamiento en plataformas digitales y redes sociales.

Derechos de los ConsumidoresConsejo de Autorregulación y Ética Publicitaria

“El tema es crucial porque impacta directamente en la libertad de elección y en el derecho a decidir sobre bienes y servicios. Se ha avanzado poco respecto del uso de la publicidad comercial como herramienta que operativiza la discriminación algorítmica, utilizando preferencias y hábitos de consumo para elaborar perfiles y dirigir mensajes hechos a la medida, algo que sucede habitualmente en Instagram”, afirmó Patricia López Díaz, profesora de la Universidad Diego Portales.

Surge entonces la interrogante de si podrían estos mecanismos configurar una infracción publicitaria basada en discriminación algorítmica. Según la académica, el microtargeting —tecnica destinada a perfilar a cada individuo en distintos contextos— evidencia una tensión entre el interés económico de las empresas y la obligación de asegurar transparencia y equidad en la protección al consumidor.

“La cuestión es si la personalización de la experiencia realmente favorece al usuario, como se nos prometió, o si actúa en su contra. La actuación de un algoritmo puede llevar a tomar decisiones de consumo que, en otras circunstancias, quizás no se elegirían, pero que debido al constante bombardeo publicitario terminan adoptándose casi por agotamiento, insistencia o tentación. La frecuencia con que opera este mecanismo parece guardar relación con un impulso de compra inducido, lo que podría acercarse a una forma de acoso publicitario generado por IA”, sostuvo López.

La académica comentó que parte del problema para determinar una infracción normativa radica en que muchos usuarios no reconocen que al ingresar a una red social se activa un posible “patrón oscuro”, donde la publicidad se repite según gustos previamente detectados. “No contamos con una norma que prohíba expresamente la publicidad dirigida basada en preferencias recopiladas por plataformas digitales, con o sin consentimiento. Sin embargo, sí existen referencias en materia de autorregulación publicitaria”, añadió.

La séptima edición del Código Chileno de Ética Publicitaria —vigente desde el 1 de enero de este año— del Consejo de Autorregulación y Ética Publicitaria incorpora disposiciones que, a juicio de López, contribuyen a limitar la publicidad algorítmica sustentada en datos personales y a promover un uso responsable de la inteligencia artificial. El artículo 20 bis D exige informar siempre sobre el tratamiento de datos y su finalidad; mientras que el artículo 34, referido a la IA, establece que las acciones publicitarias y de marketing deben resguardar la privacidad, prevenir sesgos en la segmentación de audiencias y evitar cualquier tipo de discriminación arbitraria.

 
También te puede interesar:
El peso de los algoritmos para los trabajadores de aplicaciones y el derecho laboral
La inteligencia artificial no reemplaza, acelera
Sesgos en la inteligencia artificial ¿regular, aceptar o dejar ir?
 

artículos relacionados


podcast Idealex.press