Así como la Inteligencia Artificial es capaz de detectar patrones que escapan a nuestros ojos y forma de razonar, exacerbando sesgos que no percibimos de antemano, en ocasiones la AI puede brindarnos resultados que tengan nulo sentido para nosotros, pero que así y todo, técnicamente, no dejan de ser correctos.
Veamos el siguiente ejemplo planteado por Janelle Shanesi, una investigadora de AI[78]. En uno de sus experimentos, decidió darle a una AI, un robot desarmado en un espacio virtual y se le ordenó que lo armara, de forma tal que el mismo se pueda desplazar desde un punto de inicio A, a un punto de llegada B. Como señala Janelle, el problema con la AI, no es que se vuelva contra nosotros, sino que haga exactamente lo que le pedimos que haga, sin ser claros en los límites o variables que debe acatar. Su AI fue capaz de armar el robot y cumplir con la orden recibida, pero no como nosotros lo hubiéramos imaginado.
¿Qué salió mal? Esa es la pregunta que nos hacemos cada vez que una AI nos brinda resultados inesperados. ¿Se reveló nuestra AI o hubo un problema cuando le dimos indicaciones en primer lugar? En las películas, cuando algo sale mal con AI es porque las máquinas cobran conciencia y deciden revelarse. En el canal de televisión TNT puede que suceda eso, pero en el mundo real no. Eso quiere decir que en la actualidad, si nosotros le damos una serie de instrucciones a una AI, esta hará lo que pueda para lograr el objetivo deseado, pero no necesariamente como nosotros esperamos. El siguiente ejemplo, que tomamos prestado de la charla TED de Janelle, titulada «The danger of AI is weirder than you think» (El peligro de la AI es más extraño de lo que creés, en español), es clave para graficar de una vez por todas a qué nos referimos. El robot desarmado lucía así:
Partiendo de nuestra lógica humana, lo primero que haríamos sería ensamblar estas partes, darle una forma conocida, con piernas, y luego enseñarle a moverlas para poder desplazarse efectivamente desde A a B, tal como se muestra en la siguiente imagen.
Partiendo de la lógica de la AI, la cosa cambia, y mucho. No le decimos a nuestra AI cómo resolver el problema, tan solo le asignamos el desafío o el resultado final al que debe llegar, lo cual hará a través de prueba y error. Para sorpresa de muchos, la AI que probaron llegó a la conclusión de que el problema se resolvía ensamblándose en forma de torre y dejándose caer desde A hasta llegar a B. Técnicamente esto resuelve el problema que le dimos.
Una vez más, observamos que el problema no es la AI en sí, ni que se vuelva mala contra nosotros, sino que va a hacer exactamente lo que le pidamos que haga. Eso conlleva a que lo difícil de trabajar con AI pase a ser cómo establecer correctamente los desafíos para que efectivamente nos de resultados más cercanos a lo que esperamos. De hecho, otro resultado curioso que se dio en una AI similar a la utilizada en el experimento anterior, pero en este caso por David Ha[79], tuvo lugar al otorgarle a la computadora un camino recto que debería atravesar, nuevamente partiendo de un punto A, para llegar a un destino B, pero diciéndole que para ello, la AI debería crear un sistema de pies y piernas. La AI desarrolló un sistema de pies y piernas gigantes, que lograban atravesar todo el espacio dado entre A y B en un solo paso. ¿Cumplió con su cometido? ¡Seguro! ¿Esperábamos que diseñe un juego de pies y piernas gigantes? No. Nos esperábamos algo más pequeño, a escala, comparable con las proporciones de nuestro sistema de pies y piernas, no el de animales o extremidades gigantes que ni siquiera estaban atadas a un cuerpo completo.
Si los algoritmos permanecen privados, encerrados en una caja negra, nunca podremos entender completamente por qué nuestra AI resolvió algo de una forma y no de otra. Ya comentamos lo negativo que esto puede llegar a resultar a nivel social. Ahora toca ver qué pasa cuando abrimos su código fuente para ver qué hay dentro de esa caja negra. No repitamos el mismo error de Epimetheus que no sabía el contenido de la caja de Pandora según versa la mitología griega. La moral del mito resuena con el debate actual, en donde debemos considerar también los peligros de apresurarnos a crear algo que no entendemos del todo bien (Ioanna Lykiardopoulou, 2023).
Unos años atrás un grupo de científicos puso a trabajar un modelo de AI para diferenciar perros siberianos de lobos. Si bien el programa mostró una efectividad importante, hubo un caso en donde la AI identificó un perro siberiano por un lobo, cuando este no era el caso. Como el grupo detrás de la investigación no supo a qué se debió este error, reescribieron su código para que el programa les explique por qué había llegado a esa decisión. ¿La respuesta? La foto del perro siberiano, mostraba nieve en la parte de atrás y alrededor del perro. Los investigadores no se habían dado cuenta, pero la mayoría de las fotos que el programa había absorbido de lobos, también mostraban nieve. Esto quiere decir que en este caso, la AI que desarrollaron prestó más atención al entorno que al objeto que debería haber intentado identificar en primer lugar.
Esto revela otro problema y es qué sucede cuando la AI se equivoca. ¿Y si esta decisión hubiera valido la vida de una persona? Ojo, la Inteligencia Artificial en sí no se equivocará, a lo sumo replicará errores que le insertamos al programarla o alimentarla con nuestro conjunto de datos o incluso al darle instrucciones poco claras. Si bien en los últimos años hemos visto avances que nos han dejado con la boca abierta, miren la siguiente foto que fue analizada por Inteligencia Artificial en el año 2015 ¡Hace un montón! Lo sé, pero ¡miren la efectividad que logró!
El ojo de una AI en 2015[80]
Cuidado igual al pedir abrir estas cajas negras, hay límites, o mejor dicho, a veces el tiro también puede pegarnos en el pie. Si bien no queremos que una red social defina de forma privada el resultado de una elección a través de su algoritmo, tampoco podemos pedirles que publiquen sus algoritmos de moderación de contenido, ya que si esto sería público no solo habría más personas intentando explotar al mismo para posicionar mejor su contenido, sino que los grupos terroristas, los spammers y las redes de bots también podrán explorar a libro abierto cómo saltear estos controles y eso no es algo que queramos ver.
[78] Shane, J. (2019). The danger of AI is weirder than you think. TED Talks. Visto el 12 de octubre del 2021, en https://www.ted.com/talks/janelle_shane_the_danger_of_ai_is_weirder_than_you_think.
[79] Ha, D. (2018). RL for Improving Agent Design. GitHub. Visto el 19 de junio del 2021, en https://designrl.github.io.
[80] McNamara, T. (2015). Twitter. Visto el 23 de julio del 2021, en https://twitter.com/timClicks/status/619734363362557953.