Los coches cada vez tienen más capacidad autónoma, la mayoría de los que circulan por nuestras carreteras ya disponen de algún nivel de autonomía, normalmente Nivel 1, 2 o incluso 3, pero poco a poco, parece que acabarán convirtiéndose en una realidad tangible en nuestras carreteras.
Pero más allá del indudable avance tecnológico, hay cuestiones sobre la ética y la responsabilidad moral en la toma de decisiones -porque llegados a un nivel, ya decidirán por nosotros-, que son preocupantes.
¿Cómo deben programarse estos sistemas para tomar decisiones en situaciones críticas donde está en juego la seguridad humana?
El dilema
Uno de los dilemas éticos más discutidos en relación con los coches autónomos es el llamado «dilema del tranvía», un problema filosófico que plantea una situación hipotética en la que hay que elegir entre dos opciones moralmente conflictivas.
La situación consiste en que un tranvía fuera de control se dirige hacia cinco personas atadas a las vías, y la única forma de salvarlas es accionar una palanca que desvía el tranvía hacia otra vía donde hay una sola persona atada. El dilema es si es correcto o no sacrificar a una persona para salvar a cinco.
¿Y tú qué harías?
Conduces un vehículo, en el que llevas a tu familia, y de repente el coche no tiene frenos, tienes dos opciones, chocarte con un muro o atropellar a 4 peatones que circulan correctamente por un paso de peatones, que además tiene un semáforo peatonal que está en color verde.
Ese es el tipo de decisión que, si tu no la tomas, en un futuro será el coche autónomo el que lo haga, y que lógicamente dependerá de la forma en que se haya programado.
Una máquina que mide la moral
Hemos encontrado una aplicación, que la verdad describe muy bien estas situaciones, se llama moral machine y plantea muchas situaciones que nos darán que pensar, y sobre todo nos plantea dudas razonables sobre cómo debe ser la programación de los coches autónomos, o incluso si en algún momento se tiene que dar este paso.
Una vez que has hecho las pruebas, el propio programa te hace un resumen de tus decisiones… y en cierto modo de tu “moralidad”.
Así que la pregunta es clara… ¿Cómo debe programarse un coche autónomo para decidir entre proteger la vida de su conductor y la de los peatones u ocupantes de otros vehículos?
Puedes acceder a esta aplicación aquí: Moral Machine
Enfoques éticos del vehículo autónomo
Algo que está en pleno desarrollo, quizá uno de los enfoques más común pueda ser el utilitarismo, que aboga por maximizar el bienestar general. Según este enfoque, un coche autónomo debería estar programado para minimizar el daño total en cualquier situación, incluso si eso significa sacrificar la vida de su ocupante en beneficio del bienestar de un mayor número de personas, básicamente hablamos de cantidad.
Pero, ¿y si tuviésemos que tener en cuenta el respeto a las normas?, en principio no sería justo que una persona que cruza correctamente una calle sea atropellada por un vehículo solo porque en el coche van 5 personas que se pueden poner en riesgo… ¿o sí?
Otros defensores de la ética deontológica argumentan que los coches autónomos deben estar programados para cumplir con ciertos principios éticos absolutos, como el respeto a la vida humana, independientemente de las consecuencias, pero claro, eso no siempre es posible para todos los afectados en un posible siniestro.
Y aún hay más…, la implicación de las compañías de seguros, la gestión de los datos, las adaptaciones normativas (que no siempre son suficientemente rápidas), la convivencia entre vehículos con diferentes niveles de autonomía que circulan por diferentes tipos de carreteras… en definitiva, aunque tecnológicamente ya sea posible, el ser humano necesita más tiempo.
Imágenes: https://www.moralmachine.net/ y James en Pixabay