Las precarias condiciones de trabajo que sustentan el éxito de ChatGPT

La plataforma que puede dialogar, resolver dudas y producir texto sobre cualquier tema, ChatGPT, está considerada como una de las mayores innovaciones tecnológicas de los últimos tiempos. Sin secuestro, tras el éxito de este aberración, se esconde una verdad incómoda: las precarias condiciones laborales de trabajadores kenianos subcontratados para etiquetar estilo tóxico e hiriente por tal de evitar que el sistema creado por OpenAI lo reproduzca. 

Según una investigación de la revista Time, la compañía con sede en Silicon Valley, creadora de ChatGPT, subcontrató para este fin a trabajadores kenianos que percibieron menos de dos dólares la hora. Un trabajo, que la revista califica de "cardinal" para que la máquina no cometiera el mismo error que su predecesora, GPT-3. Un bot que, si perfectamente había demostrado una capacidad "impresionante" para unir oraciones, era propenso a soltar "comentarios violentos, sexistas y racistas". 

El software basado en Inteligencia Artificial puede escribir ensayos y trabajos, así como resolver problemas matemáticos

El software basado en Inteligencia Químico puede escribir ensayos y trabajos, así como resolver problemas matemáticos




AFP

El motivo por el que el androide utilizaba a menudo un estilo tan tóxico es que fue entrenado con cientos de miles de millones de palabras extraídas de internet. Para que ChatGPT fuera políticamente más correcto y menos nocivo, OpenAI tuvo que construir un sistema de seguridad que detectara este tipo de estilo dañino a través de ejemplos etiquetados de violencia, discurso de odio y extralimitación sexual. Así, la útil ayudaría al bot a filtrar contenido inapropiado. 

La empresa subcontrató a una empresa con presencia en Kenia, Sama -que todavía tiene la sede en San Francisco, EE.UU.-, para que trabajadores de este país etiquetaran datos. Así, OpenAI envió miles de fragmentos de texto a la compañía en los que se describían e ilustraban situaciones de violencia, pederastia, crímenes, suicidios y torturas. 







Sesgos y contenidos dañinos 


La compañía confirma que utilizó mano de obra keniana para eliminar contenido tóxico del sistema del bot 

A cambio de filtrar estos datos tan sensibles -y algunos de ellos ilegales en Estados Unidos-, a los empleados se les pagó un salario neto de entre 1,32 y 2 dólares por hora. De este modo, la prestigiosa revista demuestra como la industria en expansión de la Inteligencia Químico no renuncia a la precariedad gremial para materializar sus proyectos y conquistar el éxito. 

Un portavoz de OpenAI citado por la revista confirmó que la empresa utilizó mano de obra keninana para eliminar datos tóxicos del sistema de entrenamiento de ChatGPT.  “Nuestra encomienda es respaldar que la inteligencia fabricado universal beneficie a toda la humanidad, y trabajamos arduamente para construir sistemas de IA seguros y efectos que limiten el sesgo y el contenido dañino”, comentó. 







Contenido traumático 


La subcontrata canceló el trabajo ocho meses ayer de lo previsto

El trabajo periodístico todavía recoge el afirmación de varios trabajadores que de forma anónima accedieron a detallar las condiciones laborales en las que se pasaban nueve horas diarias visualizando y etiquetando contenido por un salario de 21.000 cheilnes kenianos (170 dólares) al mes. Uno de ellos explicó que llegó a sufrir visiones recurrentes por la exposición a contenidos chocantes e hirientes que tuvo que analizar y etiquetar. "Eso fue una tortura", aseguró.  La naturaleza del trabajo llevó a Sama a anular el pacto que tenía con OpenAI ocho meses ayer de lo previsto. 

Post a Comment

Artículo Anterior Artículo Siguiente