Para hacer el «trabajo sucio», empresas como Google, Facebook, Microsoft o Open AI utilizan mano de obra de Kenia, India y Uganda encargada de entrenar a la inteligencia artificial. En concreto recurren a miles de trabajadores de estos países para filtrar el contenido altamente tóxico y violento de cara enseñar al algoritmo a detectarlo. Y, según resalta Publico.es, en la mayoría de casos estas personas están mal pagadas, menos de dos dólares la hora, y terminan con problemas de salud mental.

Un hombre que tiene sexo con un perro delante de un niño pequeño, una violación anal a un menor que describe al detalle cada paso, abusos sexuales que introducen instrumentos cortantes en la vagina, la violación, tortura y asesinato de una niña, suicidios en directo, incesto, autolesiones. Estos son algunos de los contenidos que, según el artículo de Laura G. De Ribera en Publico, tienen que visionar, leer, describir y etiquetar los trabajadores que las grandes compañías tecnológicas, como Open AI (creadora de ChatGPT y Dalee) o Meta (dueños de Facebook, Instagram, WhatsApp) tienen contratados en países en desarrollo, para depurar los datos con los que entrenan a sus algoritmos de machine learning.

«Para hacer que la inteligencia artificial parezca inteligente, hay cientos de miles de personas que están haciendo un trabajo invisible y mal pagado en los rincones menos privilegiados del planeta», nos dice Virginia Eubanks, politóloga en la Universidad de Albany (EEUU) y divulgadora experta en justicia social y tecnología. Y es que para alimentar a los algoritmos y enseñarles a reconocer contenido de la web (imágenes, texto), es necesario que alguien los entrene primero, dándoles de comer toda esa información que necesitan para, eventualmente, poder sacar sus propias conclusiones.

«Para que se puedan cumplir las normas que establecemos respecto a la pornografía en una red social, por ejemplo, hay una madre en una chabola en India viendo miles de imágenes al día y decidiendo qué es un pene y qué es un pulgar, por unos pocos céntimos la hora», señala Eubanks.

Aunque esta experta lleva años denunciando la situación, no fue hasta comienzos de este año que se hizo pública con todo detalle. Una investigación de la revista Time destapaba las condiciones de los empleados de Sama, una empresa californiana que emplea a trabajadores de Kenia, Uganda e India para que etiqueten contenidos de sus clientes (Google, Meta o Microsoft).

En 2021, Sama fue contratada por Open AI para clasificar decenas de miles de fragmentos de texto, con el fin de detectar lenguaje tóxico relacionado con violencia, discurso de odio y abuso sexual. Esta es una labor que deben hacer trabajadores humanos. Los modelos de lenguaje generacional (como ChatGPT) y los algoritmos de moderación de contenidos (filtros para detectar contenido inapropiado) necesitan de este «pequeño» paso previo. Precisan que se les suministre el contenido pernicioso ya etiquetado para que, así, tras ser alimentada con miles y miles de ejemplos, la inteligencia artificial (IA) pueda llegar a identificarlo «por sí sola» cuando se tope con imágenes o textos parecidos en el futuro.

Es necesario, también, para filtrar la información con la que se alimentan los modelos generacionales de lenguaje para que no tengan acceso a ella y, por tanto, no puedan reproducir esos textos e ideas comprometidas. Para entendernos, es como enseñar a hablar a una cotorra evitando decir palabrotas en su presencia. Aunque aquí los contenidos en cuestión son bastante más dañinos.

linea

Radiocable.com y su programa La Cafetera se financian con las aportaciones de lectores y oyentes. Necesitamos tu ayuda para sobrevivir. Si te gusta el periodismo que defiende el programa y sientes que te acompaña, hazte suscriptor-mecenas aquí.

linea

Print Friendly, PDF & Email