Bard es entrenado por empleados mal pagados y explotados que cuestionan el rigor de la aplicación

Los trabajadores del chatbox de Google, Bard, que se encargan de evaluar, filtrar, corregir y etiquetar el contenido de la herramienta estarían trabajando en condiciones precarias y con bajas remuneraciones, de acuerdo a una investigación de Bloomberg.

El modelos de Inteligencia Artificial desarrollado por Google depende en gran medida del trabajo de miles de humanos que fiscalizan los contenidos.

Sin embargo, Bloomberg accedió a un grupo de trabajadores y los comunicados internos de la empresa, que revelan que la carga de trabajo y la presión a la que están expuestos, aumentó luego que Google decidiera adelantar tras el lanzamiento de su rival ChatGPT.

«Las personas están asustadas, estresadas, mal pagadas, no saben que está pasando. Y esa cultura de miedo no es propicia para obtener la calidad y el trabajo en equipo que quieres de todos» afirmó uno de los contratistas a Bloomberg.

Algunos trabajadores de contratistas como Appen y Accenture estarían ganando US$14 por hora.

Sin embargo lo más grave es que los trabajadores denunciaron que reciben una «formación mínima» para acometer las tareas encargadas por Google, que en algunos son consultas de dosis médicas o interpretaciones de leyes estatales.

Un contratista reveló que le pidieron que comparara dos respuestas del procesador de texto sobre una medida de Florida en contra de personas transgéneros.

Los trabajadores tienen que tomar una decisión apropiada basada en los seis puntos ofrecidos por Google, entre ellos la especificidad de la información, su frescura y coherencia.

Otro evaluador aseguró que la velocidad a la que se les pide revisar el contenido podría llevar al procesador de texto a cometer errores, que lo convertiría en un producto defectuoso.

Google exige revisar que las respuestas no contengan contenido dañino, ofensivo o excesivamente sexual. Además, tienen que revisar que no se trate de información falsa, de acuerdo al instructivo de la empresa que señala que la revisión debe ser «basado en su conocimiento actual o una búsqueda rápida en la web».

Esta falta de rigurosidad quedó evidenciada en un estudio de Newsguard que comprobó que Bard produce fácilmente contenido falso que respalda conocidas teorías conspirativas.

Por su parte, Google señala que cuenta con «procesos rigurosos de prueba, capacitación y retroalimentación» y agregó que las revisiones humanas no son las únicas que hacen para filtrar los contenidos.

«Realizamos un trabajo extenso para construir nuestros productos de inteligencia artificial de manera responsable», dijo Google en un comunicado a Bloomberg

Con respecto a las condiciones laborales, Google dijo que no tenía nada que ver y que de eso se encargaban las empresas contratistas.

Articulos relacionados

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Sigue en contacto a través de

0SeguidoresSeguir
Lamoscanews.com Lamoscanews.com Lamoscanews.com Lamoscanews.com

Lo más reciente