Terminator ya llegó, “hasta la vista baby”

 

Tan solo unos años atrás, la Inteligencia Artificial era un campo de acción, discusión y estudio en los ámbitos de investigación académica y de películas de ciencia ficción.

 

Durante la mayor parte del siglo pasado, los principales avances en materia tecnológica vinieron impulsados por los esfuerzos de los Estados en materia de Inversión y Desarrollo, muchas veces vinculado claro al desarrollo de sus capacidades militares.

 

Si bien la idea no es defender, ni fomentar, ningún tipo de militarización, este modelo sí tenía un beneficio para los Estados-Nación, y es que además de mejorar su capacidad de defensa y ataque, los gobiernos eran, por aquel entonces, quienes disponían las cláusulas legales de cómo habría de ser utilizada esa tecnología en desarrollo.

 

Los desarrollos militares actuales, encomendados por los Estados, están orientados a proteger la vida de los civiles, más allá de obviamente intentar detectar mejor a su enemigo en el campo de combate, lo cual creo, insisto, sin defender las guerras, resulta acertado si queremos evitar las llamadas “muertes colaterales” de civiles. Me encantaría vivir en un mundo sin guerras, y sin violencia, estoy seguro que a vos también, pero ese no es el caso. Ya todos conocemos bien el mundo en el que vivimos.

 

Hoy en día, las leyes militares, impiden que las armas de destrucción sean autónomas, por lo que estas deben ser controladas por humanos antes de atacar al enemigo. El ejemplo más claro de ello, pueden ser los famosos drones de guerra que hoy en día se han vuelto tan populares debido a distintas películas y noticias recientes. Es verdad que no están tripulados, pero al fin y al cabo, hay una persona, sentada en alguna base militar secreta, que lo controla de forma remota y que decide cuándo apretar el gatillo.

 

Tal como dice la Directiva 3000.09 del Departamento de Estado, de los Estados Unidos, la principal potencia militar del planeta, el uso de capacidades autónomas en el territorio de combate con humanos está expresamente prohibido y una de las razones es que la tecnología aún no puede discriminar positivamente entre soldados adversarios y civiles con absoluta certeza[59].

 

Dicho eso, el 27 de noviembre del 2020, Mohsen Fakhrizadeh, quien estaba a cargo del desarrollo del programa nuclear iraní, fue asesinado[60] por una ráfaga de disparos emitida desde un vehículo ubicado a 150 metros de él. No había humanos en el vehículo desde el que se produjeron los disparos. En su interior solo se hallaba el arma letal que terminó con la vida de Fakhrizadeh. La esposa de Fakhrizadeh se encontraba a menos de diez centímetros de distancia de él y resultó ilesa. Las únicas víctimas fatales fueron él y su guardaespaldas. Si se utilizó AI para generar dichos disparos, o si alguien controló el arma de forma remota aún persiste como un incógnito y es probable que se mantenga así ya que el auto Nissan desde el que se produjeron los disparos, implosionó de forma programada al terminar el ataque, eliminando así cualquier indicio de prueba alguna.

 

Esto abre un nuevo debate ya que una cosa son las regulaciones que acepten los Estados y otra cosa muy distinta son las capacidades que la tecnología le pueda brindar a un grupo terrorista o a un criminal en sí. Los terroristas nunca rigieron su comportamiento de acuerdo a la ley y ahora tampoco lo harán. El problema es que adquirir un misil o uranio enriquecido para generar una catástrofe, siempre fue, en teoría, difícil y al final del día se trataba de cosas materiales, con elementos químicos fácilmente detectables en aduanas y aeropuertos. Por el contrario, un virus informático o un programa de Inteligencia Artificial, hipotéticamente hecho para causar daño, puede enviarse fácilmente por email o incluso a través de WhatsApp o Telegram, saltando fronteras sin despertar la más mínima alarma en los cuerpos de seguridad, nacionales e internacionales. Miremos el ejemplo de Stuxnet sino, un virus de computadora que inició su propagación a través de un USB, y que no solo infectó miles de computadoras a nivel mundial, sino que su objetivo era atacar importantes infraestructuras industriales, especialmente aquellas radicadas en Irán[61]. El virus que rápidamente se propagó de una computadora a otra, ganando acceso a través de la red y pudiendo reprogramar sistemas enteros y ser actualizado a distancia, tomó el control de la planta nuclear de Natanz, en Irán. Los perpetradores del ataque, no llegaron allí por azar, ya que supieron tomar el control de las centrifugadoras que permiten separar el uranio, y las aceleraron a tal grado de velocidad que lograron destruirlas. ¿Quién somos para negar que la próxima guerra de gran peso no inicie efectivamente por un virus que ataque la infraestructura crítica de un país? Si pudieron hacer esto con una planta nuclear, qué les impedirá a los ciberatacantes ir tras la red eléctrica de un país, sabotear sistemas de control aéreos o colapsar los sistemas de un hospital, quizás incluso, en medio de una pandemia.

 

Unos años atrás se viralizó un video falso, creado por Future of Life Institute y Stuart Russell[62], dedicado a la concientización respecto al futuro de las armas autónomas. En el video, el presentador se mostraba desde un escenario dando una presentación en tono similar a las que suelen dar los principales CEO’s de Silicon Valley cada vez que presentan un nuevo producto o servicio. La principal diferencia, es que el producto que el presentaba era un mini dron con una pequeña carga explosiva que podía ser programado para identificar a través del reconocimiento facial a la víctima que buscaba y así volar derecho hacia ella y detonar la carga al impactarle. El video es shockeante y por eso considero que debes verlo ya que si lo analizamos bien, en realidad ya contamos con toda la tecnología necesaria para que alguien perpetre un ataque de tales características. Un dron se puede comprar o fabricar de forma casera, agregarle una cámara y software de reconocimiento facial es igual de fácil. Tan solo debes conseguir algún explosivo para agregarle a su cuerpo y listo, bien podrías programarlo para que la carga detone al impactar contra algo, o con un temporizador o bien realizar la orden de ejecución de manera remota. Recuerda que hoy se venden incluso modelos de drone miniatura para que jueguen los niños, por lo que acceder a esta tecnología es sumamente fácil.

 

Drones asesinos – Future of Life Institute

 

El uso de AI en conflictos armados preocupa a la comunidad científica desde hace rato y por eso ya varios científicos y personas de renombre han firmado una carta pública solicitando la prohibición del uso de esta tecnología para fines militares[63], y entre ellos se encuentran António Guterres (secretario general de la ONU), Francesca Rossi (profesora de Ciencias de la Computación en la Universidad de Harvard, ex presidenta de la Conferencia Internacional Conjunta sobre Inteligencia Artificial y co-presidenta del comité sobre Impacto y Cuestiones Éticas de la AI en la American Association for Artificial Intelligence), Stephen Hawking (Premio Nobel de Física), Elon Musk (CEO de Tesla, SpaceX, Twitter y co-fundador de Paypal), Barbara J. Grosz (ex presidenta de la American Association for Artificial Intelligence), Steve Wozniak (co-fundador de Apple), Jody Williams (Premio Nobel de la Paz 1997 por su trabajo para prohibir el uso de minas antipersonales y bombas de racimo), Noam Chomsky (profesor en el Massachusetts Institute of Technology o MIT), Lisa Randall (profesora de física en la universidad de Harvard) y Demis Hassabis (CEO de DeepMind). Los líderes políticos del mundo deben llamar a las mentes más brillantes y capacitadas en este campo para poder regular esta tecnología y mantener el poder de policía sobre ella para regular su uso en guerras y otros escenarios por más difícil que sea.

 

Dejemos de idealizar lo que nos plantea Hollywood. Ninguna máquina se convertirá en “mala” de un momento a otro. Como siempre, los datos con que alimentemos nuestra Inteligencia Artificial y sus instrucciones de uso serán las que determinen su accionar. Si los datos ingresados están sesgados, indudablemente nuestra AI adquirirá dicho sesgo y probablemente incremente su efecto negativo en la sociedad, ya que el programa intentará mejorar sus resultados y por eso, debemos insistir en la importancia de la conformación de equipos multidisciplinarios para el filtrado de los datos con que vamos a alimentar nuestros algoritmos. Lo mismo será necesario a la hora de formular la tarea a resolver, ya que si la misma no es definida con parámetros suficientemente claros, nuestra AI podrá tomar caminos desconocidos para alcanzar su cometido. Pensar en armas autónomas que sean capaces de decidir quién vive y quién muere, sin intervención humana externa, es posible que sea uno de los mayores umbrales de la moralidad que debamos enfrentar y el momento para hacerlo es ahora mismo ya que países como Estados Unidos, China, Israel y Rusia, entre tantos otros, ya se encuentran desarrollando sistemas de armas autónomas[64] y es por eso que este tema no puede mantenerse más entre las sombras.

 

Si esta tecnología no puede entender la intención de unas simples líneas de texto, cómo podemos aceptar que discrimine entre un civil y un soldado en un escenario tan difícil como la guerra. Ese es el caso hoy, pero probablemente en el futuro sí lo logrará, o tendrá una tasa de acierto sumamente elevada, y la política deberá avanzar en relación con dicha tecnología.

 

La deshumanización de la guerra podría convertirse en una de las mayores injusticias de la historia. Reemplazar tropas humanas por robots hará que tomar la decisión de ir a una guerra sea más fácil para un país poderoso. El uso de armas autónomas que nada entienden de compasión, será una grave amenaza para los civiles, cuyas muertes suelen ser disfrazadas bajo la etiqueta de daños colaterales. La Inteligencia Artificial jamás, repito, jamás, debe atentar contra los derechos humanos. Recordemos entonces lo que sucedió el 26 de septiembre de 1983 en plena Guerra Fría. Ese día, Stanislav Petrov, se convirtió en el héroe de la humanidad. Ese día, mientras él vigilaba el sistema de Defensa Aérea de la Unión Soviética, detectó que el radar de alerta temprana le indicada que Estados Unidos había lanzado 5 misiles intercontinentales con destino a la USSR[65]. Petrov, dedujo que se trataba de un error y decidió esperar por más pruebas en vez de notificar a sus superiores, que de haberlo hecho probablemente hubieran ordenado un ataque de represalia sobre Estados Unidos y sus aliados de la Organización del Tratado del Atlántico Norte (OTAN). Imaginemos ahora qué hubiera pasado si en vez de Petrov, quien detectaba esto era una AI. Esta debería haber respondido de inmediato. Sin embargo, se trató de una falsa alarma. Años antes, incluso, en 1980, el Centro Nacional de Mando Militar del Pentágono, detectó, de forma equivocada, que 220 misiles soviéticos se dirigían a territorio estadounidense[66]. ¿La culpa? Un chip de 0,46 centavos de dólar en mal estado.

 

Haz click aquí para leer el siguiente capitulo 👉 
 


Haz click aquí para volver al Índice 🔍 


[59] Department of Defense. (2012). Directive N° 3000.09. Autonomy in Weapon Systems [Ebook]. Viso el 18 de mayo del 2021, en https://www.esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf.

[60] Wintour, P. (2020). Iran says AI and “satellite-controlled” gun used to kill nuclear scientist. The Guardian. Visto el 23 de mayo del 2021, en https://www.theguardian.com/world/2020/dec/07/mohsen-fakhrizadeh-iran-says-ai-and-satellite-controlled-gun-used-to-kill-nuclear-scientist.

[61] Zetter, K. (2014). An Unprecedented Look at Stuxnet, the World’s First Digital Weapon. WIRED. Visto el 15 de marzo del 2021, en https://www.wired.com/2014/11/countdown-to-zero-day-stuxnet.

[62] Hambling, D. (2022). “If Human, Kill”: Video Warns Of Need For Legal Controls On Killer Robots. Forbes. Visto el 27 de diciembre del 2022, en https://www.forbes.com/sites/davidhambling/2021/12/03/new-slaughterbots-video-warns-of-need-for-legal-controls-on-killer-robots/?sh=6f40e0b37238.

[63] Autonomous Weapons an open letter by AI & Robotics Researchers. Future of Life Institute. (2015). Visto el 22 de mayo del 2021, en https://futureoflife.org/open-letter-autonomous-weapons/?cn-reloaded=1.

[64] Wareham, M. (2020). Stopping Killer Robots. Human Rights Watch. Visto el 15 de Agosto del 2022, en https://www.hrw.org/report/2020/08/10/stopping-killer-robots/country-positions-banning-fully-autonomous-weapons-and.

[65] Stanislav Petrov, Soviet Officer Who Helped Avert Nuclear War, Is Dead at 77 (2017). The New York Times. Visto el 18 de mayo del 2023, en https://www.nytimes.com/2017/09/18/world/europe/stanislav-petrov-nuclear-war-dead.html.

[66] Schlosser, E. (2016). World War Three, by Mistake. The New Yorker. Visto el 18 de mayo del 2023, en https://www.newyorker.com/news/news-desk/world-war-three-by-mistake.