Suscríbete
Internacional

El debate alemán sobre la responsabilidad penal tecnológica

Cuando un vehículo automatizado causa lesiones o muerte, utilizando los algoritmos con que fue programado ¿quién responde en el área criminal? ¿El conductor, el representante legal de la empresa que lo construyó, los ingenieros a cargo?

22 Marzo, 2017 Comparte en:
Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn
Sofía Martin Leyton

Eric Hilgendorf, profesor de la Universidad de Würzburg, Alemania, estuvo la semana pasada en Chile.

En la Facultad de Derecho de la Universidad Alberto Hurtado dio una conferencia sobre la responsabilidad penal por daños producidos por vehículos autónomos. Sí, esos que no tienen conductor o en los cuales el que maneja podría dedicarse a leer, mirar una serie o dormir una siesta, mientras el software se preocupa de mantenerlo siempre en una pista, conservar cierta distancia con el auto que va adelante o estacionar como es debido.

¿Suena a ciencia ficción o a capítulo de The Good Wife? Hace 3 años un automóvil completamente automatizado entró a una pequeña ciudad, mientras estaba encendido el asistente para mantenerse en la vía. El problema es que el conductor se había desmayado. Si hubiera estado consciente, se habría detenido, pero el asistente no lo hizo y atropelló a una familia: la madre con su hijo murieron y el padre se salvó.

Nadie discute que existe responsabilidad civil, pero quién es el autor del homicidio negligente o culposo. “El conductor era más víctima que autor del delito”, dijo el académico.

El tema es tan actual, que esta semana se discute en el Parlamento alemán. ¿Debe responder penalmente el productor de la tecnología que causó lesiones o muerte? ¿Responde el Gerente General? ¿Es responsable el ingeniero que programó el software?

El riesgo permitido

Es aquí donde entran diversos conceptos, como la asignación de riesgos, esto es, cómo se distribuye este potencial de responsabilidad. Hablamos de la creación consciente de riesgos; hablamos de que esta ponderación da lugar a la figura del “riesgo permitido”.

El problema es que no hay acuerdo doctrinal respecto de su alcance, de la ubicación dogmática de la responsabilidad penal.

Y es imposible abstraerse de aspectos relativos a la responsabilidad en la tecnología moderna aplicada al tránsito vial. “Desde algunos años hay innovaciones notables. Los vehículos autónomos se distinguen por su independencia; son automóviles robóticos que circulan sin acción humana”, dijo y añadió: “Hay responsabilidad por culpa o por peligro; se puede esperar que se produzcan desplazamientos de responsabilidad desde el conductor hacia el productor del vehículo automatizado”.

Más difícil, prosiguió, es responder qué temas de derecho penal se crean en conexión con el riesgo permitido. Lo que ya está previsto es la lesión dolosa y culpable, el homicidio doloso y culpable, poner en peligro a otros, y la conducción en estado de ebriedad. “Básicamente, surge un deber de cuidado cuando un agente se pone en riesgo y la realización del daño se puede evitar con una conducta para prevenirlo”, dijo.

También sostuvo que el cuidado debido está limitado por el principio de confianza: “Cada usuario puede pensar que los demás también tendrán el debido cuidado. El peligro no puede ser absolutamente evitado, a menos que se decida no participar en el tránsito”.

El dilema del control

En la producción de vehículos automatizados, lo que se reprocha es la creación de un riesgo que ha tenido un resultado dañoso.

Los vehículos automatizados liberan al usuario de la conducción, tan ampliamente, que en principio podría realizar múltiples actividades distintas de conducir. Lo discutible es si se puede hacer legalmente: “Hasta ahora esto no está permitido. Es el dilema del control. Técnicamente no sería necesario, pero jurídicamente sí es responsabilidad del usuario”.

La pregunta es el aprovechamiento de lo posible versus el riesgo permitido. Si no, las ventajas de la tecnología no se podrían aprovechar. “Pero no es tan así, no puede ser usado para derogar tácitamente las normas escritas. Con cambios legislativos, por ejemplo, podrían usarse los teléfonos celulares”, dijo.

Las fallas

El profesor Hilgendorf agregó otro ingrediente: que nunca se pueden excluir las fallas, sean por desgaste de material, por un sensor sucio o con hielo, o incluso sabotaje.

En estos casos, habría dos potenciales sujetos de responsabilidad: el conductor y el fabricante. Al conductor se le podría reprochar imprudencia; se podría argumentar que debería haber revisado los sensores antes de estacionar, por ejemplo. El riesgo permitido aquí no sería aplicable.

¿Y qué pasa con eventuales ataques vía internet? Mientras más funcionalidades —útiles y deseables para el usuario— tenga el sistema, más abierto a contactos digitales externos estará y ello lo deja a merced de hackers que pueden provocar directamente daños o influir en la conducción, causando accidentes. “Pero el hacker es escurridizo; se podría apuntar a los programadores del software. Si se trata de algo que se pudo prevenir y, por ende, evitar… pero si se quiere perseguir la responsabilidad penal del fabricante, aparecerá el riesgo permitido”, razonó.

¿Cuál es el grado de inseguridad que puede ser aceptado? Depende. Del estado de la técnica, de las exigencias de medidas de protección y de las expectativas justificadas del público. “El riesgo no puede calcularse matemáticamente, pero sería más transparente si hay un proceso de negociación social, que a propósito de la automatización vial, recién ha comenzado en Alemania”, contó.

La única medida de seguridad absoluta sería renunciar a la técnica automatizada. Audi y BMW ya tienen equipos estudiando este tema.

Sacrificar al inocente

Particularmente interesante fue la exposición de casos en que los daños son provocados por asistentes que funcionan para evitar accidentes: una situación en que hay que elegir entre uno o más daños.

“La computadora sigue los algoritmos programados y las prioridades. Ahí podría surgir la responsabilidad del ingeniero y del fabricante. Pero ellos conocen de manera meramente abstracta la aplicación; para ellos no son conocidos el lugar, el hecho, ni los participantes del caso en particular”, advirtió Hilgendorf.

Porque hay una cierta cantidad de casos en que se debe optar entre dos daños, y si se usa el criterio del “mal menor”, todo va bien hasta que entra en juego la vida humana.

Si de pronto aparecen en la vía 3 niños y la programación no lo ha previsto, ¿qué es lo preferible: virar a la derecha y chocar un auto lleno de gente o virar a la izquierda y atropellar a dos peatones, que con seguridad sufrirán graves lesiones o la muerte?.

“La muerte de un inocente no se puede justificar con el cálculo de que el número de salvados es mayor que el de los seres sacrificados, porque la vida humana no puede ser cuantificada en estos términos. La muerte de inocentes es siempre antijurídica, incluso en caso de necesidad”, dijo.

Ahora una pregunta sobre la que no se habló en la conferencia: ¿comprarías un automóvil diseñado para estrellarse, matando al conductor, si el algoritmo define que con ello salvará más vidas de las que se perderán?

 

* También te puede interesar leer el artículo “Nuestra vida en manos de la ética de los nuevos coches autónomos”, escrito por Juan Pablo Maza Correa y publicado en Law & Trends.

Comparte en:
Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn