El concepto central del capitalismo de vigilancia o surveillance capitalism reside en el hecho mediante el cual los consumidores, a cambio de servicios generalmente gratuitos, acceden a permitir que empresas gigantes monitoreen su comportamiento, lo cual les ayuda a mostrarte anuncios publicitarios alineados a tus intereses. Para Shoshana Zuboff, este nuevo “capitalismo de la información”, ayuda a predecir y modificar el comportamiento humano bajo la premisa de aumentar las ventas y el retorno de inversión de las empresas. ¿Es esto algo nuevo? Claro que no y la vigilancia tampoco es propia del capitalismo, ha existido desde tiempos inmemorables y en todos los sistemas, en algunos casos incluso para forzar el silencio de las mentes disidentes. Tal fue el caso de Rumania en la década de 1980, que aún bajo su régimen comunista, que decretó que todas las personas que tengan una máquina de escribir debían reportarse una vez al año a la policía y proveer una muestra o copia de la escritura de su máquina para poder realizar perfiles forenses en caso de que a algún iluminado decida escribir en contra del gobierno de Nicolae Ceaușescu[89].
Si bien el capitalismo de vigilancia está asociado a la mercantilización de los datos personales, sus raíces se hayan mucho tiempo atrás. Nos remontamos entonces a la creación del Estado moderno, en donde la burocracia estatal se comenzaba a encargar de registrar distintos datos de sus ciudadanos. Así como siglos atrás las iglesias registraban las partidas de nacimiento, luego esta función pasó a manos de los Estados, así como la entrega de números de identificación personal, registros de impuestos, boletín de notas escolares, historia clínica y tantos otros registros que fueron allanando el paso para recolectar fácilmente los atributos personales de cada individuo.
Los consumidores suelen ser engañados con empresas de redes sociales que captan su atención con facilidad. Estas empresas muchas veces comparten con terceros parte de nuestra información para formar perfiles publicitarios más inteligentes sobre nosotros mismos. Hasta aquí, luego de los escándalos de Facebook y Cambridge Analytica[90], nada nuevo. Ahora, sin olvidarnos de los beneficios que las redes sociales proveen, a esta altura también conocemos bien los riesgos económicos, políticos y sociales que estas conllevan. ¿Qué hacemos con ello? Eso es todo un tema aparte pero es probable que las consecuencias de no hacer nada al respecto puedan ser peores que elegir otro camino. Vayamos entonces a la pregunta. Si sabemos que los algoritmos de las redes sociales nos hacen mal y resultan nocivos para la salud personal y al bienestar social ¿por qué si regulamos el cigarrillo, que es nocivo para la salud, y hasta el contenido que vemos en la televisión, no podemos regular los algoritmos que captan nuestra atención? No importa si hablamos de la salud de nuestros pulmones o nuestra salud mental. Salud es salud. Esta pregunta la generó Melina Masnatta, co-fundadora de Chicas en Tecnología y ex Directora Global de Aprendizaje y Diversidad de Globant, en un encuentro organizado por la organización Global Shapers Buenos Aires en el Centro Cultural Recoleta. Quizás no nos guste admitir que un conjunto de algoritmos hoy rigen nuestras vidas, a nadie le gusta admitir estar por debajo de la inteligencia de otra persona, o peor aún, de una máquina. Aunque no nos guste, estos algoritmos hoy tienen la posibilidad de generar reacciones químicas en nuestros cerebros para mantenernos bajo control, afectando nuestro comportamiento y emociones. Antes de escribir la oración anterior me pregunté si eso estaba bien o no, ya que después de todo, si leemos entre líneas, parece que dije que debemos elegir qué deben mostrar los algoritmos con los que interactuamos diariamente. Para mi sorpresa, me di cuenta que en realidad esto es una práctica ya ejecutada por todos los países a través de sus sistemas de educación, al elegir con qué textos enseñar, y con cuáles no. La matemática es universal. Los valores y connotaciones sobre el bien y el mal, en los principales eventos históricos de la humanidad, es todo otro tema. ¿Está bien? ¿Está mal? ¿Lograremos que la gente deje de temer a las vacunas y dejen de creer en teorías conspirativas como la terraplanista si restringimos el acceso a ciertos textos del alcance de nuestros algoritmos? No lo sé. Pero tampoco sé si es nuestra potestad decidir eso, incluso aunque sea en favor de un bien común y mayor para la sociedad en su conjunto. Dicha pregunta contrapone la intención de vivir en un mundo en donde todos nos rijamos por verdades científicas y otro en donde la libertad de pensamiento es completamente libre y no coaccionada por una sola narrativa, incluso cuando sus postulados sean verdaderos.
No tengo dudas de que la Inteligencia Artificial debe ser regulada, no soy el primero en decirlo, y tampoco voy a ser el último. Lo dice cualquier experto, desde Elon Musk en occidente, hasta Kai-Fu Lee en oriente. Sin embargo, mi pregunta es ¿hasta qué punto? Me resulta claro que debemos prevenir los sesgos en contra de distintos grupos sociales. Lo que no me queda claro es si debemos imponer una sola historia, una sola verdad. Ser humano no implica tener todas las respuestas, ni hacer todo de forma correcta según algún paradigma de moda. Al menos así ha sido hasta ahora, pero decir que las cosas se tienen que mantener de una forma porque así lo hemos hecho históricamente tampoco es correcto. Demasiado complaciente, estatuquista y tradicional para mi gusto.
De hecho, yo me pregunto ¿qué van a hacer los Estados, cuando un par extranjero conozca, quizás a través de sus corporaciones, todas nuestras preferencias, debilidades mentales y nuestro cuadro de salud? ¿Qué pasa cuando sepan esto de todos los políticos, empresarios, jueces y periodistas de un país? ¿Podremos seguir diciendo que ese Estado es independiente? Solemos pensar que la vigilancia es ejercida por las clases altas, a las capas medias y bajas de la sociedad, pero esto está por cambiar. Es especialmente la élite quien más deberá cuidarse en este sentido, sino pregúntenle a Jeff Bezos que fue espiado en su móvil a través de un archivo que recibió por WhatsApp de Mohammed bin Salman, príncipe de Arabia Saudita[91]. A esta altura la vigilancia puede ser externa o interna, y en el mercado abundan los programas de espionaje que se venden al mejor postor, siendo un claro ejemplo de esto el software Pegasus desarrollado por NSO Group y vendido a varios gobiernos, entre ellos Alemania[92], El Salvador[93], Hungría[94], India[95] y muchos más. Lo terrible de Pegasus no solo es que en ocasiones se ha descubierto su uso para vigilar activistas de derechos humanos, opositores políticos y periodistas, sino que haciendo uso de vulnerabilidades críticas y no conocidas públicamente de los principales sistemas operativos móviles, este ha logrado ser instalado de forma remota en los dispositivos de las víctimas sin necesidad de tener que engañarles para que descarguen un archivo malicioso o tener acceso físico al mismo para instalar el troyano espía. Como si fuera poco, si bien el software fue desarrollado por una empresa privada, al tratarse de una ciberarma, el Ministerio de Defensa de Israel es quien decide en última instancia qué países pueden comprarlo. Tanto es así que una extensa investigación publicada en el New York Times[96] demostró cómo los gobiernos de Panamá y México cambiaron su forma de votar en temas relacionados a Israel en la Organización de las Naciones Unidas una vez que se les brindó acceso a Pegasus, por lo que esta ciberarma también está sirviendo para modificar el status-quo de la geopolítica. ¿Qué tan independiente van a ser los países frente a este nuevo colonialismo de tipo digital? ¿Servirá de algo una moción de la ONU para regular el uso y transferencia de las herramientas de espionaje digital? Llegamos al punto en el que si uno tiene demasiada información, ya no necesita enviar tropas al territorio enemigo.
[89] Zsiros, S., &McMahoon, M. (2019). The Brief: Romania’s revolution – searching for answers 30 years on. Euronews. Visto el 24 de marzo del 2023, en https://www.euronews.com/my-europe/2019/12/18/the-brief-romania-s-revolution-searching-for-answers-30-years-on.
[90] Clark, B. (2018). Facebook and Cambridge Analytica: Here’s what you need to know. The Next Web. Visto el 18 de febrero del 2023, en https://thenextweb.com/news/facebook-and-cambridge-analytica-heres-what-you-need-to-know.
[91] Kirchgaessner, S. (2020). Jeff Bezos hack: Amazon boss’s phone “hacked by Saudi crown prince”. The Guardian. Visto el 19 de febrero del 2023, en https://www.theguardian.com/technology/2020/jan/21/amazon-boss-jeff-bezoss-phone-hacked-by-saudi-crown-prince.
[92] Welle, D. (2021). German police secretly bought Pegasus spyware. Deutsche Welle. Visto el 24 de marzo del 2023, en https://www.dw.com/en/german-police-secretly-bought-nso-pegasus-spyware/a-59113197.
[93] El Salvador: La Comisión Interamericana de Derechos Humanos celebrará una audiencia sobre el uso abusivo del programa espía Pegasus. (2022). Amnistía Internacional. Visto el 24 de marzo del 2023, en https://www.amnesty.org/es/latest/news/2022/03/elsalvador-pegasus-iachr.
[94] Hungary: The government must provide a meaningful response to the Pegasus scandal. (2021). Amnesty International. Visto el 24 de marzo del 2023, en https://www.amnesty.org/en/latest/press-release/2021/07/hungary-the-government-must-provide-a-meaningful-response-to-the-pegasus-scandal.
[95] Dhillon, A., & Safi, M. (2021). Indian supreme court orders inquiry into state’s use of Pegasus spyware. The Guardian. Visto el 24 de marzo del 2023, en https://www.theguardian.com/news/2021/oct/27/indian-supreme-court-orders-inquiry-into-states-use-of-pegasus-spyware.
[96] Bergman, R., & Mazzetti, M. (2022). The Battle for the World’s Most Powerful Cyberweapon. The New York Times. Visto el 24 de marzo del 2023, en https://www.nytimes.com/2022/01/28/magazine/nso-group-israel-spyware.html.