Lo sé. Apenas terminamos de hablar sobre nuestras dudas respecto a los vehículos autónomos y ahora te pregunto si los algoritmos de AI pueden ser racistas. La respuesta sencilla es que “no”. La respuesta completa es más compleja.
Un algoritmo por sí solo no tiene conciencia. Hace lo que se le ordena y punto. Así que No. La AI por sí misma no es racista. Distinto puede ser el caso si se la quiere aplicar con tales fines o si de forma involuntaria le transmitimos nuestros sesgos y esta los maximiza.
Un estudio publicado en 2017 por la revista Science descubrió que una computadora que se auto enseñó inglés, rápidamente comenzó a mostrar sesgos en contra de las personas afroamericanas.
¿Cómo fue esto posible? Utilizando un repositorio de datos recolectados de numerosas fuentes de internet a través de una técnica conocida como scrapping y compilados por la gente de Common Crawl[72]. La muestra contenía más de dos millones de palabras[73]. Un océano completo de palabras. El programa aprendió a asociar palabras a partir de textos escritos por humanos. Aunque a esta altura asumo que esto quizás no te sorprende, dichas asociaciones reflejaban las lecciones de los humanos. De esta forma, el programa fue capaz de asociar el placer a las flores y lo desagradable con los insectos. Hasta ahí marcha todo relativamente bien. El problema se dio cuando el programa comenzó a absorber estereotipos y allí la Inteligencia Artificial detectó que con mayor frecuencia los nombres de personas blancas, europeas o norteamericanas, son más propensos a estar asociados a términos placenteros que los de afroamericanos. De hecho, si buscamos palabras como “CEO” o “bombero” y nuestra AI identifica que estas palabras están asociadas a más casos que hagan referencia a hombres, una AI destinada a contratar gente para estos puestos puede estar inclinada a aceptar a más hombres que mujeres para cubrir estos cargos.
Estos algoritmos entienden cómo funciona nuestro vocabulario y analizan la frecuencia con que una palabra puede aparecer junto a otra. El problema siempre va a ser que la información que le demos a los algoritmos van a ser datos creados y seleccionados por humanos por lo que puede haber sesgos desde el inicio. Paradójicamente, aquí la fuente del problema y la solución de la misma, somos nosotros, los seres humanos. ¡Aboguemos entonces por una AI feminista, a favor de las diversidades y las minorías!
[72] Common Crawl. Commoncrawl.org. Visto el 13 de julio del 2021, en https://commoncrawl.org.
[73] Hsu, J. (2017). AI Learns Gender and Racial Biases From Language. IEEE Spectrum: Technology, Engineering, and Science News. Visto el 15 de julio del 2021, en https://spectrum.ieee.org/tech-talk/artificial-intelligence/machine-learning/ai-learns-gender-and-racial-biases-from-language.