¿Qué es y porqué es necesaria la epistemología feminista de la inteligencia artificial?

27 abril, 2021
¿Qué es la epistemología feminista de la inteligencia artificial? Foto: Alex Knight (@agk42) en Unsplash.

¿Qué es la epistemología feminista de la inteligencia artificial?

La RAE define epistemología como “teoría de los fundamentos y métodos del conocimiento científico”. Esto es, la epistemología se ocupa de la “la validez” del procedimiento que construye el conocimiento científico, es decir, el conocimiento sometido a las exigencias de precisión y objetividad propias de la metodología de las ciencias.

Por otro lado, la RAE define inteligencia artificial como la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.

Si juntamos ambos conceptos, podemos decir que la epistemología de la inteligencia artificial se ocupa de la validez de los procedimientos para obtener los programas informáticos que simulan la inteligencia humana.

En tercer lugar, la RAE define feminista como “relativo al feminismo”; y feminismo como “principio de igualdad de derechos de la mujer y el hombre”.

Entonces, podemos decir que la epistemología feminista de la inteligencia artificial se ocupa de la validez de los procedimientos que siguen el principio de igualdad de derechos de la mujer y el hombre para obtener los programas informáticos que simulan la inteligencia humana.

Podemos encontrar definiciones mucho más elaboradas, pero para empezar, por simplicidad, vamos a trabajar con esta bien sencilla.

La importancia de la epistemología feminista

¿Porqué es necesaria la epistemología feminista? Es decir, ¿porqué es necesario validar procedimientos para obtener inteligencias artificiales que garanticen la igualdad de género? Para responder a esta pregunta vamos a ver un par de ejemplos ilustrativos.

Tay, el chatbot de Twitter creado por Microsoft

Tay era una inteligencia artificial que se suponía que debía aprender leyendo tweets e interactuando con otros usuarios de la plataforma Twitter. En su descripción decía: “The more you talk the smarter Tay gets”. Pero con sólo unas horas de funcionamiento Tay empezó a tuitear textos de contenido sexista y racista y tuvo que ser desconectado por Microsoft. En un principio Microsoft intentó acusar a un ataque de 4chan, pero nunca se pudo demostrar.

¿Qué había pasado?

Tay había sido programada para almacenar y procesar datos procedentes de conversaciones de tuiteros humanos de entre 18 y 24 años y así perfeccionar su lenguaje, aptitudes y actitudes millenial para parecer más humana. Pero para obtener una inteligencia artificial no sexista y no racista ¿ese procedimiento de aprendizaje era válido? Evidentemente no, porque habían obviado que el contenido de Twitter no garantizaba la necesaria igualdad de género.

Valkyrie y Sophia, robots con características de mujer estereotipada

Otros casos lo encontramos en el robot humanoide Valkyrie, que fue diseñado por la NASA para soportar temperaturas extremas y sobrevivir en ambientes hostiles para la vida humana, o en el robot humanoide Sophia, el robot de IA más avanzado de Hanson Robotics creado con el objetivo de ayudar a la gente en campos reales como la medicina y la educación. Ambos son robots con características de mujer estereotipada.

Como en otros casos similares de robots “femeninas”, estos robots suelen tener ese aspecto hipersexualizado innecesario para su cometido.

¿Qué elemento del procedimiento de construcción  ha llevado a ese resultado?

Lucy Suchman, citada por Erika Hayasaki en su artículo Is AI Sexist? (2017) proporciona una explicación desde la epistemología feminista: «para algunos diseñadores, los robots de género se convierten en un proyecto masculino de crear artificialmente a la mujer perfecta».

En ambos ejemplos, el componente sexista de la cultura patriarcal hegemónica es “invisible” para muchos de los diseñadores si son hombres (también, a menudo, si son mujeres, porque el sexismo es un elemento estructural de nuestra cultura). La epistemología feminista hubiera proporcionado las gafas para hacerlo visible y poder analizar la validez o no de un procedimiento para obtener robots no sexistas.

Autor / Autora
Doctora en Matemáticas por la Universidad de Barcelona y licenciada en Humanidades por la Universitat Oberta de Catalunya. Es profesora de los EIMT de la Universitat Oberta de Catalunya.
Comentarios
Al5 mayo, 2021 a las 1:03 pm

Para cualquiera que lea este artículo solo quiero puntualizar unos detalles que hacen que esté parcialmente en desacuerdo con la conclusión final.

Un breve vistazo a los robots Valkyrie y Sophia bastan para saber que la «hipersexualización» de la que se habla en el artículo no es tal como se describe. Valkyrie es un robot bípedo cuyo aspecto deriva de los robots clásicos que uno podría imaginar y se antepone el hecho de que tenga «un poco de pecho» a que se haya llamado Valkyrie en nombre de aquellas famosas guerreras. En cuanto a Sophie tengo entendido que hay estudios que demuestran que una imagen femenina es menos interpretada como hostil, de ahí que la mayor parte de robots, asistentes web y voces como Alexa, Siri y demás sean femeninas. Sophie no esta de ninguna manera «hipersexualizada».

Respecto a Tay, son comprensibles esos resultados ya que aprender de una fuente de datos tan caótica como la jerga popular de Twitter, que está totalmente polarizada en cuanto a ideología y política, con el proposito de obtener una IA lo más «educada» y «central» posible me parece algo bastante iluso.

Despues de leer el artículo que se referencia en la conclusión sigue sin quedar claro si es una realidad cuantificable o es una ficción basada en los «estereotipos masculinos» de los que se supone que intentamos huir al buscar la igualdad de género. Basta preguntarse lo siguiente para darnos cuenta de a qué punto estamos llegando para tomar una decisión de algo totalmente irrelevante para el fin de un proyecto: ¿Es posible asignar un género, una raza, etnia, etc. a un ser inanimado con el objetivo de darle una identidad humana sin que ello desemboque en una discriminación? Pienso que no, y que será así salvo que todos los seres humanos sean la misma persona, hablen el mismo idioma y vivan en una isla.

En lo que si estoy totalmente de acuerdo con el artículo es en el hecho de que las IAs deben obtener buenos conjuntos de datos para evitar estos sesgos en la medida de lo posible, ya que es la única forma en la que podremos confiar en las decisiones que puedan tomar por nosotros en un futuro.

Responder
Deja un comentario