fbpx
lunes, 16 de septiembre de 2024

internacional

Cuando la IA se equivoca en tu predicción de salud

A fines de agosto, se reunieron exponentes del sector privado, la academia y el gobierno, para debatir sobre riesgos y responsabilidades en el uso de algoritmos por parte de las compañías de seguros y los servicios de salud públicos y privados.

- 5 septiembre, 2024

¿Cuáles son los beneficios de usar inteligencia artificial en las operaciones de una empresa? El auge de tal tecnología ha hecho que esa pregunta sea constante en los organismos que quieren usar el procesamiento acelerado de datos de los algoritmos. Natalia Drullinsky, Chief Digital Officer de BICE VIDA, comentó en una columna de opinión publicada en Diario Financiero, que para el mercado de seguros la evaluación de riesgos es uno de los aspectos donde las IAs pueden mejorar la capacidad de las mismas a la de tomar decisiones sobre sus clientes.

IA y saludPaulina Silva

¿Pero qué riesgos hay asociados cuando se utiliza en ese mercado? “El tratamiento automatizado de datos es una área con una regulación nueva y esto nos va a afectar a todos. La elaboración de perfiles con tales datos se encuentra en la esencia del mundo de los seguros, y las exigencias asociadas con esas acciones son identificar donde se está haciendo el tratamiento automatizado de datos y bajo qué circunstancias estamos tomando una decisión que podría afectar al titular, como es el precio de la póliza o la decisión de otorgar o no cobertura”, explicó Paulina Silva, socia en Bitlaw, respecto del impacto en las empresas aseguradoras del proyecto de regulación de sistemas de inteligencia artificial, actualmente en trámite en el Senado de Chile.

Sus palabras se dieron en el contexto del seminario “Los Riesgos y la Inteligencia Artificial en los Seguros” organizado por la Fundación Fernando Fueyo, la Facultad de Derecho de la Universidad Diego Portales y el estudio jurídico Peralta Sandoval Llaneza Gutiérrez (PSLG), y que fue realizado en las oficinas de la agencia de seguros Chubb. Silva explicó que las obligaciones de transparencia en la propuesta serían muy exigentes con las empresas de seguros, dado la información delicada que manejan, y que las convierten en una fuente de riesgo cuando usan inteligencia artificial.

“El proyecto les pedirá a las aseguradoras explicarles a sus clientes, en su política de privacidad, la lógica subyacente a la conclusión que está tomando en cada una de sus decisiones tomadas con el apoyo de IA, y será un desafío descubrir como explicaremos esa lógica. La norma también clasificará en categorías de riesgo a las IAs con respecto a los datos que usan, existiendo el riesgo inaceptable, el alto riesgo, el riesgo limitado y la categoría sin riesgo. Es en las empresas con alto riesgo donde gran parte de las obligaciones aplicarán y por la forma en que opera el negocio de los seguros, nosotros vamos a estar viviendo dentro de esa clasificación”, añadió la abogada de Bitlaw.

Cumplir con esta futura posible norma sería necesario para evitar pagar cuantiosas multas, pero no es la única norma a la que las aseguradoras deben ponerle atención, sino que también a regulaciones como la Ley de delitos informáticos, la Ley Marco de Ciberseguridad y la Ley de Protección de Datos.

En este contexto, si las aseguradoras son víctimas de algún ataque cibernético o se genere un ataque dentro de sus instalaciones, bajo las nuevas normas podría aplicársele en tales casos la responsabilidad penal de la persona jurídica. “Dentro de la Ley Marco de Ciberseguridad y las obligaciones de ciberseguridad en general, existen los criterios de cumplimiento, pero estos rara vez tienen que ver con delitos informáticos y todo el tiempo con las obligaciones o con los consejos que nos decía nuestra mamá cuando éramos pequeños. Cuídate, establece medidas técnicas y organizacionales de seguridad que sean siempre coherentes con los datos que estoy tratando, pero mi madre también me decía, que si te pasaba algo, la segunda obligación es avisar, lo que las aseguradoras deberán hacer a las autoridades competentes lo más pronto posible”.

Salud, algoritmos y las viejas instituciones civilistas

Algunas de las tecnologías de interés para las aseguradoras son las IAs usadas para el diagnóstico médico; estas incluyen servicios como Alma Medical, BoneXpert o IAs usadas por la Clínica Mayo para la detección de diabetes. Pero como muchas inteligencias artificiales, hay riesgos asociados a la misma, como sobrediagnósticos, falsos positivos o la predicción de que el paciente desarrollará la enfermedad equivocada.

“El gran problema de las IAs es que ellas procesan lo que sabemos, por lo que son dependientes del tipo de dato que nosotros le estemos entregando. Normas de protección de datos pueden restringir el acceso a ellos, que es lo que uno necesita para poder entrenarlas mejor. A pesar de ello, los algoritmos cuentan con menor riesgo de equivocarse que un humano si ha tenido un número de exámenes suficientes del que aprender, por lo que su uso es un aporte, siempre y cuando se informe a los pacientes que su diagnóstico fue hecho total o parcialmente por una IA”, explicó May Chomali, médico cirujano y directora ejecutiva del Centro Nacional en Sistemas de Información en Salud.

IA y saludMay Chomali

La doctora cuenta que en Chile ya están usando sistemas de inteligencia artificial para diagnóstico y predicción de enfermedades, incluso sin ley vigente. En ese contexto, otro riesgo para Chomali son los sesgos que pueden existir en los datos y apunta a estudios donde los algoritmos se han equivocado basándose en la apariencia de las personas: “En estos casos, este algoritmo determinó que las personas de raza negra y los pacientes de 61 a 70 años, tienen mayor probabilidad de que se les detecte un cáncer cuando no existe, en comparación con las personas blancas y jóvenes”.

¿Quién será el responsable de los errores y cómo se resolvería jurídicamente? Carlos Pizarro, profesor de derecho civil de la Universidad Diego Portales y secretario ejecutivo de la Fundación Fernando Fueyo, contó durante el seminario que ante este desafío “el derecho civil tiene la mala costumbre de que en el momento en que surge un problema nuevo, tratará de encajarlo en las viejas instituciones para darle una solución”.

El profesor señala que el uso de una determinada máquina, tenga esta inteligencia artificial o no, puede convocar la responsabilidad contractual o extracontractual según si es el paciente quien demanda, o sean terceros quienes resulten dañados: “Existiendo toda una cadena de ensamblaje y diseño con diversos actores, es usual en cuestiones de productos defectuosos que se invoque una posible responsabilidad por el hecho propio, el hecho ajeno y por el hecho de las cosas. Cuando se trata de hecho propio, la responsabilidad se puede convocar en la conducta de un sujeto directa en la confección de la IA. En el uso médico, puede existir tal responsabilidad por parte de la clínica que decidió hacer uso de esta tecnología. Si el servicio de algoritmos fue arrendado, entonces el recinto médico tendría que ser responsable por el hecho ajeno”.

segurosCarlos Pizarro

El problema, para Pizarro, es que en Chile no hay una responsabilidad por el hecho de las cosas: “El Código Civil es ajeno a esa idea, si no que simplemente tipifica ciertas situaciones donde se puede dar lugar a la responsabilidad por el hecho de una cosa que se tiene bajo el cuidado, y ahí yo creo que podrá hacerse responsable aquel que tiene bajo su cuidado el diseño de la IA. La empresa que la crea debe hacerse responsable por su estructura y funcionamiento, independientemente de si la máquina utiliza inteligencia artificial o no. Muchas de las empresas que diseñan estos algoritmos y máquinas están en el extranjero, por lo que sería pertinente la teoría del levantamiento del velo e ir a buscar la responsabilidad de estos distintos actores si es que tienen, obviamente, una familiaridad societaria en el país”.

Además, si se trata de máquinas de uso médico, el Código Sanitario y otras serían la clave, ya en ellas existen normas especiales relativas a los elementos de uso médico e instrumentos destinados al diagnóstico, prevención y tratamiento de enfermedades. “La pregunta es si un producto médico que use inteligencia artificial calza dentro de esas expresiones: a mí me parece que sí, por lo que tenemos una parte del problema resuelto”, opinó Pizarro.

Para el profesor, la solución a nivel nacional sería la creación de una ley general de productos defectuosos que incluyera no solo a los productos con inteligencia artificial, sino que todos los dispositivos que presentan fallos: “Es necesaria, porque probar el defecto es una carga importante para la víctima y de eso depende la indemnización”.

 
También te puede interesar:
Datos personales: situación actual y protección a través de seguros
La importancia del lenguaje claro en los seguros
Ley de Vivienda genera críticas en abogados y dispara los seguros en España
 

artículos relacionados


podcast Idealex.press