Chu chu, todos a bordo

 

Pese a mi formación universitaria en Relaciones Internacionales y en Ciberdefensa y Ciberseguridad, el ejemplo de la guerra no es el que más me deslumbra. Lo que me desvela es el caso de los vehículos autónomos y para eso vamos a jugar con algunas preguntas filosóficas como las que suele hacer Michael Sandel, profesor de Harvard, a sus alumnos[67].

 

Supongamos que eres el conductor de un tranvía, y tu máquina va corriendo por los rieles a 60 millas por hora y al final de los rieles ves a cinco obreros trabajando. Tratas de detener el tranvía pero no puedes, los frenos no funcionan y ellos no te oyen. Te sientes desesperado porque sabes que si chocas a los 5 obreros ellos morirán. Luego te das cuenta que a la derecha hay un riel alterno, y al final de ese riel, hay un obrero trabajando en los mismos. Tu volante funciona, así que puedes cambiar la dirección del tranvía, si quieres, hacia el riel alterno matando a un obrero pero evitando la muerte de 5.

 

Ahora empieza nuestro juego. ¿Qué harías vos? ¿Seguirías el camino predefinido matando a los 5 obreros o cambiarías de riel y elegirías matar a solo uno? Tomes la decisión que tomes hay gente que va a morir. No hay más opciones ni escenarios posibles en este ejercicio.

 

Tras hacer esta pregunta a varias personas de distinta formación, la gran mayoría, casi absoluta, declara que virarían el volante para que solo muera uno de los obreros. A mi parecer, la lógica de esta respuesta es correcta. ¿Para qué matar a 5 pudiendo matar a solo uno cuando la fatalidad resulta inevitable?

 

Aquí acaba de regir el principio del utilitarismo, teoría fundada a fines del siglo XVIII por Jeremy Bentham. La misma establece que la mejor acción, siempre es la que produce la mayor utilidad para el mayor número de individuos involucrados. Tiene sentido. ¿No?

 

Ahora bien, analicemos la siguiente consigna del profesor Sandel:

 

Nos imaginamos un nuevo caso, ahora no eres el conductor del tranvía. Eres un espectador parado en un puente con vista sobre los rieles del tranvía, y abajo, en los rieles, viene el tranvía y más adelante hay 5 trabajadores. Sabés que los frenos no funcionan y el tranvía está a punto de chocar a los 5 obreros y matarlos. Repito, ahora no eres el conductor. Estás desesperado. Hay 5 personas que están por morir. De repente, notas que al lado tuyo, inclinado sobre el borde de la baranda del puente, hay una persona más. Vos podrías empujarla. Esta persona caería del puente hacia los rieles y bloquearía el camino del tranvía. De más está decir que esta persona moriría en el acto, pero los 5 trabajadores se salvarían.

 

¿Qué harías ahora? Si querés, tomate un minuto para pensarlo y autorresponderte a ti mismo antes de seguir leyendo.

 

Hace tan solo unos instantes acabamos de aceptar el principio de la mayor utilidad para la mayoría de las personas. Si seguimos esa teoría al pie de la letra deberíamos haber elegido empujar a la persona sobre los rieles y salvar a los 5 trabajadores. Sin embargo, según mi análisis, es muy poca la gente que tomaría esa decisión.

 

En esta oportunidad, hay factores distintos al primer caso. Para empezar, nosotros no estamos involucrados directamente en el acontecimiento. Tenemos la opción de elegir si pertenecemos e interactuamos con el mismo o no. Pero eso no es todo, en el primer ejemplo había 2 grupos de personas claramente detectados, y uno de ellos iba a morir con absoluta seguridad. En nuestro nuevo escenario ingresa un nuevo actor, ajeno a lo que está sucediendo, una persona que quizás simplemente estaba disfrutando del paisaje, esperando a alguien o disfrutando del aire fresco. Esta persona no estaba destinada a participar de la serie de eventos que está por desatarse, pero nosotros con nuestra acción podemos alterar su vida, mejor dicho terminarla, y salvar a las otras 5 personas. Claro que convirtiéndonos nosotros mismos en asesinos de pasada. Pequeño detalle.

 

Podrían responder también que en el primer caso el obrer­o solitario justamente estaba sobre los rieles y que eso lo justifica, pues en este caso podemos decir que esta persona estaba en el puente y por ello justificarlo. Sus posiciones físicas no alteran el hecho en realidad. Ninguno de los 2 decidió sacrificarse, alguien más tomó la decisión por ellos.

 

Si ya te sientes confundido con tus propias posturas, aguardá porque el ejercicio continúa:

 

Olvidémonos por un momento de este caso e imaginémonos algo distinto. Esta vez eres un doctor o una doctora en una sala de emergencia y te traen a 5 pacientes que estuvieron en un terrible accidente de tranvía: 4 de ellos tienen heridas moderadas, uno tiene heridas severas, y tenés que escoger entre pasar todo el día cuidando a la víctima con heridas severas, pero durante ese tiempo las otras cuatro personas morirán por no recibir la atención necesaria, o puedes cuidar a los 4 y curarlos, pero durante ese tiempo la persona con heridas severas morirá. ¿Cuántos de ustedes optarían por salvar a los cuatro pacientes ahora que son el doctor o la doctora? ¿Cuántos salvarían al paciente de heridas severas? Muy pocas personas. Presumo que por la misma razón, una vida versus cuatro vidas.

 

Ahora consideren otro caso similar. Esta vez eres un cirujano de trasplante y tenés 5 pacientes en necesidad desesperada de un trasplante de órgano para poder sobrevivir. ¡Resulta que un tranvía impactó a 5 obreros! ¿Podés creerlo? En fin, uno necesita un corazón, uno un pulmón, uno un riñón, uno un hígado, y el quinto un trasplante de páncreas. No tenés donantes de órganos a tu alcance. Estás a punto de verlos morir y entonces recuerdas que en la sala adyacente hay un hombre saludable que vino al hospital para un chequeo de rutina. Él está tomando una siesta y tú, hipotéticamente hablando, podrías ir silenciosamente, y quitarle los 5 órganos. Esa persona moriría, pero podrías salvar a los otros 5. ¿Alguien lo haría? ¿Vos lo harías? Claro que no.

 

Acabamos de enfrentarnos a situaciones morales que muy rápidamente nos presentaron contradicciones internas. En el primer caso optamos por considerar moralmente correcto que vivan 4 por más que uno muera, y esa decisión surge debido a nuestro razonamiento moral consecuencialista, que como su nombre lo explica, sitúa a la moral en relación a las consecuencias de un acto determinado. Luego al cambiar un poco las variables, también cambió nuestra forma de razonar, y nos abocamos hacia un modo de pensar más tendiente al razonamiento moral categórico, partiendo de ciertos valores morales absolutos como el de no matar al prójimo, implicando ciertos derechos y obligaciones independientemente de las consecuencias que ello implique, como dejar morir a 5 personas.

 

Como ejercicio puede haber resultado divertido enfrentarnos con esos dilemas morales en la privacidad de nuestra mente, sin poder ser juzgados por el resto y es que eso es en parte el rol de la filosofía, perturbarnos, incomodarnos con cosas que ya conocemos o damos por sentadas, todo ello con la finalidad de expandir nuestro entendimiento y perspectiva sobre nosotros mismos y el mundo que nos rodea. Es cierto que estas preguntas se han debatido durante algún tiempo, pero el mero hecho que las mismas persistan en agenda, parece sugerir, tal como dice el profesor Sandel, que aunque son imposibles en un sentido, son también inevitables y el motivo por el cual no podemos hacerlas a un lado es porque nos enfrentamos con recurrente frecuencia a preguntas similares y respuestas antagónicas según cada uno de nosotros y la ocasión que nos acompañe. Es por eso que estamos obligados a llevar adelante esta reflexión moral, incluso si nos encontramos con posiciones que no imaginábamos. El escepticismo por el contrario, no es una opción ya que el mundo dominado por la AI no estará exento de controversias políticas y legales que involucren preguntas filosóficas similares a las que acabamos de plantear.

 

Una pregunta que con demasiada frecuencia se repite respecto a los vehículos autónomos es sobre qué hacer en una situación crítica, ya sea por mala lectura de la información presente, por la falla de un dispositivo, por un peatón presentándose de forma abrupta cuando no debería, o lo que fuese. La pregunta en cuestión es ¿qué debe hacer el vehículo?, ¿proteger al peatón, que es el enlace más débil de esta ecuación, o salvar la vida de sus pasajeros?

 

Dicha consigna puede remitirnos rápidamente a los casos anteriores y llevarnos a evaluar cuánta gente está dentro del auto y cuántos peatones pueden resultar heridos por nuestro vehículo, pero a mí me gustaría indagar un poco más en torno a esto. Quizás la respuesta a semejante pregunta deba ser resuelta por la población en su conjunto y no por un grupo de burócratas fácilmente influenciables. Pero eso levantaría automáticamente otra pregunta. En el caso hipotético que la vida nos presente alguna de las situaciones que acabamos de describir ¿actuaríamos realmente como pensamos que lo haríamos? Si bien la mayoría de los estudios señalan que en el primer ejemplo es mayor la cantidad de personas que optarían por salvar 5 vidas, en la vida real, el único experimento que se hizo en este sentido mostró resultados llamativos.

 

Sí, leíste bien, alguien llevó adelante este experimento. Michael Stevens, reconocido divulgador científico en redes sociales como YouTube, se encarga de analizar distintos aspectos del comportamiento humano y su cerebro. Para ello, en uno de sus episodios replicó el experimento del tren y los 6 obreros divididos en 2 rieles distintos. Antes de que se asusten les aclaro que no murió nadie. Se trató de una simulación inmersiva con personas que no sabían que formaban parte de un experimento social. Se invitó a las personas a un centro de control ferroviario, en donde se les enseñaba a mover las vías del tren y luego, mediante una excusa, eran abandonados brevemente en esa sala de control y procedían a ver cámaras de distintas vías, que en realidad les mostraban grabaciones realizadas con antelación, en las cuales se mostraba un tren acercándose y 6 obreros divididos en los rieles, 5 de un lado y uno del otro. Si desean ver el experimento, está disponible, y con subtítulos en español, en el siguiente código video:

 

El bien común – Mind Field[68]

 

Puedes poner a prueba tus decisiones en La Maquina Moral, una plataforma que recopila opiniones humanas sobre las decisiones que la Inteligencia Artificial puede llegar a tener que tomar el día de mañana, como por ejemplo en el caso de los vehículos autónomos.

 

Haz click aquí para leer el siguiente capitulo 👉 
 


Haz click aquí para volver al Índice 🔍 


[67] Harvard University. (2009). Justice: What’s The Right Thing To Do? Episode 01 «THE MORAL SIDE OF MURDER» [Video]. Visto el 10 de mayo del 2021, en https://www.youtube.com/watch?v=kBdfcR-8hEY.

[68] YouTube Originals. (2017). Mind Field S2 – The Greater Good (Episode 1) [Video]. Visto el 7 de julio del 2021, en https://www.youtube.com/watch?v=1sl5KJ69qiA.