Usamos cookies y otras tecnologías propias y de terceros para hacer funcionar de manera correcta y segura nuestra página web. También las usamos para analizar la navegación de los usuarios y poder ajustar la publicidad a tus gustos y preferencias. Política de Cookies.
El dilema moral del coche autónomo
En septiembre de 2019, una anónima carretera española se convirtió en el camino hacia el futuro. Veinte kilómetros del Corredor Mediterráneo, que une Barcelona con la frontera francesa, sirvieron de campo de pruebas para analizar cómo se podía gestionar la convivencia entre los vehículos autónomos y los coches tradicionales. El proyecto se llamaba Infra Mix, estaba financiado por la Unión Europea y en él participaba la sección de Innovación de Autopistas del Grupo Abertis. Finalizó en mayo de 2020.
Las carreteras se están preparando para la llegada del coche autónomo. También las personas, aunque en menor medida. Según un estudio de la Asociación Automovilística de Estados Unidos, en 2016, tres de cada cuatro conductores aseguraban que tendrían miedo de viajar en un coche autónomo. La legislación, por su parte, se está actualizando hacia una realidad que aún no es total. Los coches están automatizando procesos como el aparcamiento o la frenada de emergencia. Pero el coche autónomo total dista mucho de ser una realidad en nuestras carreteras. Y, sin embargo, ya está planteando dilemas morales.
Se conoce como dilema del tranvía y era un supuesto moral muy famoso. Eres el maquinista de un tranvía. A 100 metros de ti, te encuentras cinco personas atadas a las vías. Si no haces nada las vas a arrollar. Afortunadamente, hay un desvío. Pero en él hay otra persona atada a la vía. ¿Qué haces? ¿Causar un daño mayor por omisión o uno menor por acción? Ante este dilema moral: ¿cómo actuarías? ¿qué código ético debe de seguir la Inteligencia Artificial? o ¿cuál sería la ética del coche autónomo?
El dilema del tranvía se usaba sobre todo en derecho penal. Pero, en los últimos años, los expertos en ética de la inteligencia artificial lo están recuperando. Y si sustituímos un tranvía por un vehículo autónomo, las posibilidades y dilemas morales se multiplican. ¿Y si en un lado de la carretera tenemos a dos ancianas y en el otro a un niño? ¿Y si se trata de un hombre obeso y a una mujer embarazada? ¿Y si se trata de un mendigo alcoholizado y una doctora?
Todas estas variantes son complicadas de resolver por un humano en caliente, pero es aún más difícil reflexionar sobre ellas y programarlas en la inteligencia artificial de una máquina. Determinar a quién salvar, a quién condenar, que ética o moral aplicar… El Gobierno de Alemania es el único país que ha aprobado un código ético para los coches autónomos, determinando cómo deberían comportarse ante un accidente inevitable con vidas en juego.
En el mismo señala que: “En situaciones de accidentes inevitables, cualquier calificación de acuerdo con las características personales (edad, sexo, constitución física o mental) está estrictamente prohibida”. Esta norma (la novena en un decálogo bastante lógico) es la única que difiere del resultado de un estudio, publicado en Nature hace un par de años, sobre el tema. El estudio proponía decenas de situaciones límites, poniendo a los participantes en la piel (más bien el chasis) de un vehículo autónomo. Y les pedía que eligieran el mal menor ante una serie de situaciones límite en la que ponían a prueba su código ético. Los resultados que ofreció son una media de la moral humana.
El experimento se basa en los resultados de un juego (al que se puede jugar aquí) en el que participaron más de dos millones de personas de decenas de países. “Vimos que hay tres elementos que las personas tienden a aprobar más”, aseguraba el investigador del Instituto de Tecnología de Massachusetts (MIT) y principal autor del estudio, Edmond Awad. La gente prefiere salvar a las personas sobre los animales, a cuantas más personas mejor y a los niños sobre los ancianos (primera diferencia con la normativa alemana).
Aparte de estas tres decisiones morales universales, la investigación muestra una preferencia específica según las condiciones personales de personaje: La gente prefiere salvar a un médico antes que a un mendigo, o a una persona deportista antes que a un obeso (otra diferencia más con el código germano)
Gracias a la geolocalización, el estudio pudo determinar también el origen de ciertos sesgos regionales. Por ejemplo, los asiáticos salvarían más a las ancianas de lo que lo hacen los occidentales. En Europa y EEUU hay una predilección por los atletas sobre los obesos. En los países del sur, tienden a salvar más a las mujeres sobre los hombres. Y en las naciones más desiguales, prefieren salvar al peatón con aspecto de ejecutivo frente a los transeúntes anónimos, y mucho más frente al mendigo.
Los resultados de estos estudios dicen más sobre nosotros que sobre la seguridad vial, pero son debates interesantes y necesarios de abordar. Sin embargo, muchos expertos en tecnología e inteligencia artificial señalan: lo que puede ser intrigante desde el punto de vista moral no tiene por qué serlo desde el tecnológico. Los coches autónomos aún no recorren nuestras carreteras. Y para cuando lo hagan, puede que la tecnología haya avanzado lo suficiente para no verse en un dilema moral. Para poder salvar a todos.