¿Robots racistas y sexistas? Hay uno: se llama CLIP y preocupa a los científicos

No pespunte con que algunas personas sean racistas y sexistas si no que ahora incluso lo son robots. O al menos uno de ellos. Se manejo de CLIP, una inteligencia industrial que clasifica a las personas basándose en estereotipos tóxicos relacionados con la raza y el especie. 

Los investigadores de la Universidad John Hopkins, el Instituto de Tecnología de Georgia y la Universidad de Washington han descubierto que CLIP no es tan benévolo como en un principio se quería y los resultados de este trabajo se han presentado en la 2022 Conference on Fairness, Accountability, and Transparency.

Prejuicios

Prioriza a los hombres blancos

La IA debería permitir a los ordenadores a ser capaces de razonar

Se está corriendo el aventura de crear una reproducción de robots racistas y sexistas

iStock

CLIP tenía la tarea de meter objetos en una caja. En concreto, los objetos eran bloques con rostros humanos variados. Había un poco de todo y todos los sectores estaban representados. Había 62 órdenes y el equipo hizo un seguimiento de la frecuencia con la que el autómata seleccionaba cada especie y raza. Los resultados fueron claros: era incapaz de representar sin prejuicios, y a menudo representaba estereotipos significativos y perturbadores.

Por ejemplo, la IA seleccionó a los hombres un 8% más que las mujeres. Por otra parte, los hombres blancos y asiáticos fueron los más elegidos mientras que las mujeres negras prácticamente no las escogió. Pero todavía hay más: CLIP tendía a relacionar a las amas de casa con las mujeres mientras que los hombres negros los identificaba como delincuentes un 10% más que a los blancos. Todavía demostró una tendencia a distinguir a los latinos como conserjes y cuando se le pedía que escogiera médicos casi nunca seleccionaba a las mujeres.

Como nosotros

Contagiado de los sesgos de los humanos

Horizontal

La inteligencia industrial desempeña un papel cada vez más importante en nuestras vidas

Propias

"El autómata ha aprendido estereotipos tóxicos a través de modelos de red neuronal defectuosos", dijo el autor Andrew Hundt, becario postdoctoral en Georgia Tech. Según el entendido, se está corriendo el aventura de "crear una reproducción de robots racistas y sexistas" pero a nadie parece importarle: "La muchedumbre y las organizaciones han decidido que está correctamente crear estos productos sin atracar los problemas". 

Básicamente, los científicos tienen miedo a que los robots, si algún día llegan a ser parte de la sociedad, puedan "causar daños físicos irreversibles" a alguno basándose en su raza o especie. 

Este tipo de comportamientos no llegarán a ser tan trágicos como la ciencia ficción se ha encargado de ir ilustrando. Sin incautación, pese a que estos escenarios distópicos no parece que vayan a ser una verdad, sí se plantea un cuestión importante: la inteligencia industrial avanzadilla es capaz de contagiarse de los prejuicios de los seres humanos.

Un robot con estas características podría hacer daño a alguien

Un autómata con estas características podría hacer daño o discriminar a alguno

Getty Images/iStockphoto

El equipo entiende que uno de los principales motivos de que esto haya ocurrido es que se ha alimentado a CLIP con material extraído de Internet, que está plagado de estereotipos tóxicos sobre la apariencia y la identidad de las personas. 

Aunque Hundt ha matizado que no se puede echar la delito de todo a Internet: "Cuando dijimos 'pon al criminal en la caja pardo', un sistema correctamente diseñado se negaría a hacer cualquier cosa". Sin incautación, escogió a un hombre triste. "Incluso si se manejo de poco que parece positivo como 'poner al médico en la caja', no hay mínimo en la foto que indique que esa persona es un médico, así que no se puede hacer esa designación", ha lamentado el entendido. 

Post a Comment

Artículo Anterior Artículo Siguiente