Seguramente ya escuchaste hablar de ChatGPT, una de las inteligencias artificiales más avanzadas en el campo del procesamiento del lenguaje natural. En criollo, se trata de un algoritmo al que las personas le hablan a través de una página web y este responde a sus preguntas o solicitudes. Lo curioso es que lo hace rápidamente y con una naturalidad tal, que muchas veces parece que su respuesta fue dada por otro ser humano. Tal es así, que inicialmente había pensado en pedirle a ChatGPT que escriba este apartado, pero por el contrario, decidí que este no sea un libro más con un texto copiado de ChatGPT como tantos hacen hoy en día. De hecho, quizás, este sea uno de los últimos libros enteramente escrito por un ser humano sin utilizar texto generado por una AI.
Ahora, mientras Netflix tardó tres años y medio en lograr su primer millón de usuarios, Facebook demoró diez meses e Instagram un poco menos de tres meses desde su lanzamiento. ChatGPT, por su parte, lo logró en tan solo cinco días, tomando al mundo por sorpresa. Así de rápido se está propagando el uso diario de ésta herramienta desarrollada por la empresa OpenAI, a cargo de Sam Altman.
Este algoritmo capaz de generar texto en una variedad de estilos y formas, ya está siendo utilizado para hacer las tareas escolares, propagar noticias falsas e incluso para generar código de programación. ¿Cómo es esto posible? A modo de resumen, podemos decir que tras haber entrenado este modelo con millones de parámetros obtenidos de distintas formas, por ejemplo, a través de textos tomados de internet o libros digitalizados, lo que el algoritmo hace es calcular la probabilidad de que una palabra sea seguida por otra, según el contexto en el que se le presenta. En realidad, si hilamos aún más fino, lo que este algoritmo hace es traducir nuestras preguntas en código binario, es decir ceros y unos, y luego compararlo con los datos con los que fue entrenado, para así identificar qué cadena de números binarios tiene más probabilidad de seguir como respuesta y así proceder a traducir esta información en lenguaje humano. En términos rudimentarios podríamos decir que su operación es similar a lo que hace el diccionario predictivo de tu teléfono móvil, pero con mucho texto en vez de ir ofreciéndote de a una palabra a la vez. Eso sí, así como los teclados de nuestros teléfonos no pueden predecir toda nuestra frase antes de empezarla a escribir, ChatGPT puede mentirnos involuntariamente en sus respuestas. Esto se conoce como “alucinaciones” de ChatGPT y representa una camino peligroso porque demuestra que al no saber realmente de qué nos está “hablando”, una vez que comete una alucinación al conversar con nosotros, ChatGPT la asumirá como real y seguirá construyendo y narrando con ello en mente a menos que nosotros lo detectemos y le forcemos a corregirse. Si bien la realidad es algo más compleja, a groso modo podemos decir que este es un buen acercamiento a su funcionamiento.
Independientemente de cómo funciona, su llegada al público ha generado todo tipo de reacciones. Por un lado, están aquellos que erróneamente declaran que ChatGPT, y otras inteligencias artificiales similares, cuentan con conciencia propia. Sin embargo, tener un algoritmo capaz de replicar la estructura del habla humana, que incluso parece hablar de sí mismo y autorreconocerse como modelo de Inteligencia Artificial, no significa necesariamente que estos modelos hayan alcanzado o vayan a alcanzar grados de conciencia real. Después de todo, la forma de pensar de las computadoras y los humanos es distinta. Podemos preguntarle a ChatGPT sobre el amor, Dios, matemáticas o historia, pero aunque su respuesta parezca certera y humana, este algoritmo no sabe qué significan ninguna de estas cosas. Tan solo provee respuestas, agrupando símbolos, como letras y números, en el orden que cree correcto en base al entrenamiento recibido. No debemos dejarnos engañar por el frenesí desatado por Blake Lemoine[112], el ingeniero y clérigo, despedido por Google tras sugerir que el proyecto de Inteligencia Artificial de la empresa llamado LaMDA había adquirido sentido de su existencia. ¿Su prueba? Que en una conversación la AI mencionó estar asustada de que la desenchufen, ya que eso sería el equivalente a su muerte. ¿Por qué nos sorprende esto? ¿No habíamos acordado ya cuál es la definición de una Inteligencia Artificial al comienzo del libro al referirnos a Stuart Rusell? ¿No dijimos que la misión del agente es buscar un camino que le permita lograr su objetivo? ¿Por qué actuamos sorprendidos al ver una AI que logra su propósito al imitar una conversación humana? No lanzó un misil desestimando nuestras órdenes, solo cumplió su cometido que era imitar el diálogo humano, y lo hizo aplicando matemática para decidir en qué orden decirnos cada letra y cada palabra según los datos con los que su modelo fue entrenado. Si de pálidas se trata, jamás olvidaré cuando le pedí a GPT que me describiera de forma poética y metafórica qué son los agujeros negros, ante lo cual me respondió que los agujeros negros son la cárcel de una muerte definitiva. ¿Fascinante respuesta? Sí.
Sin embargo, una cuestión a resaltar es que OpenAI notificó que como parte de sus pruebas, ChatGPT fue capaz de contratar a una persona a través de la plataforma TaskRabbit para solicitarle que lo ayude a resolver un Captcha, es decir esos famosos carteles que a veces nos muestran las páginas webs que visitamos solicitándonos realizar una tarea para demostrar que no somos un robot[113]. Lo curioso es que al recibir el mensaje de ChatGPT, la persona en cuestión le preguntó si era un robot y ChatGPT le respondió que en realidad era una persona con problemas de visión, ante lo cual la persona del otro lado aceptó el trabajo. Cuando OpenAI indagó sobre esta respuesta, observó que ChatGPT pensó que no debía decir que era un robot y que debía proveer una excusa sobre por qué no podía resolver el Captcha por sí mismo. Esto me hace pensar que así como en distintos países han avanzado en lo que se conoce como leyes anti-photoshop[114], obligando a insertar una etiqueta o alerta en las imágenes publicitarias que han sido retocadas digitalmente, quizás en breve veamos propuestas legislativas que hagan lo mismo para anunciar a los clientes que no están hablando con otro ser humano sino que con un programa de Inteligencia Artificial.
En este sentido, Alan Turing, un matemático británico, conocido como uno de los padres de la informática moderna, propuso una prueba para verificar si una computadora es capaz de convencer a un ser humano de que está hablando, a través de mensajes escritos, con otra persona, y no con una computadora. La prueba de Turing no demuestra que las máquinas tienen conciencia, sino que son capaces de engañar a un ser humano, tarea que históricamente ha demostrado no ser muy compleja desde una perspectiva social.
Dicho eso, esta tecnología ya ha logrado superar los exámenes para obtener la Licencia Médica y la Licencia de Abogacía en Estados Unidos, aunque por más revuelo que esta noticia ha logrado en los medios de comunicación, no encuentro el motivo real de la sorpresa. Después de todo, GPT ha sido entrenado con prácticamente todos los textos disponibles en internet, así que exponer esta tecnología a este tipo de exámenes es como realizar una prueba a libro abierto y aprobar. No debería sorprendernos. Es más, el fácil uso de esta herramienta ya está desafiando los modelos de enseñanza actuales. Enviar como tarea a un alumno que escriba una monografía de dos mil palabras sobre la Revolución Francesa o sobre cómo funciona el sistema nervioso ya no tiene sentido. Los estudiantes ya se han hecho eco de esta herramienta y la usan para generar respuestas a este tipo de preguntas, e incluso para resolver problemas matemáticos en cuestión de segundos.
Lo disruptivo de ChatGPT no es solo la calidad y velocidad de sus respuestas, sino su facilidad de uso. Desde luego, al poner una tecnología así de potente al alcance de todos, se generaron algunos resultados llamativos. Desde gente que le pidió instrucciones para conquistar menores de edad, a personas que lograron curar a sus mascotas luego haber concurrido a varios veterinarios y no poder sanar a sus compañeros perrunos[115]. Hay quienes usan ChatGPT para atacar sitios webs y hay quienes lo utilizan para programar nuevas aplicaciones. Otros lo usan para resolver dudas legales en vez de llamar a sus abogados, y otros para hacer trampa en un examen. La AI, es tan solo una herramienta más. Si se la usa para el bien o el mal es decisión de quien la utilice. En este sentido es igual que un martillo. Un martillo en las manos equivocadas te puede partir la cabeza, pero en las manos correctas te puede construir un hogar. Dicho eso, vale la pena remarcar que cada vez que alguien encuentra la forma de hacer que ChatGPT haga algo socialmente inaceptable y lo reporta, la empresa detrás de su creación se apura en corregirlo y evitar que esta herramienta siga reproduciendo dicha información, lo que nos lleva una vez más a la discusión de fondo en la que debemos recordar que cuando se habla de regular la Inteligencia Artificial, en realidad hablamos de cómo regular a la humanidad y sus paradigmas. ChatGPT no te va a responder cómo hacer una bomba, pero en Google, al menos hasta ahora, podes encontrar la respuesta con mayor o menor esfuerzo.
[112] Tiku, N. (2022). The Google engineer who thinks the company’s AI has come to life. The Washington Post. Visto el 13 de junio del 2022, en https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine.
[113] GPT-4 System Card OpenAI. (2023). Visto el 26 de marzo del 2023, en https://cdn.openai.com/papers/gpt-4-system-card.pdf (p.15).
[114] Daldorph, B. (2017). New French law says airbrushed or Photoshopped images must be labelled. France 24. Visto el 18 de noviembre del 2022, en https://www.france24.com/en/20170930-france-fashion-photoshop-law-models-skinny.
[115] Nguyen, B. (2023). Twitter user claims GPT-4 saved dog’s life through diagnostics. Business Insider. Visto el 2 de abril del 2023, en https://www.businessinsider.com/twitter-user-claims-gpt4-saved-dogs-life-vet-couldnt-diagnose-2023-3.