Mercados españoles abiertos en 7 hrs 37 min

Violencia, depravación... el día a día de los controladores de contenido en la red

Jose Mendiola
(Pixabay)

La próxima vez que eches un ojo a tu muro en Facebook o te des un garbeo por YouTube o Instagram, valorarás más algo que hasta ahora posiblemente no hayas tenido en cuenta: por fortuna y salvo penosas excepciones, son lugares 'seguros' en cuanto a contenido; es decir, que puedes consultarlos sin llevarte el mal trago de ver una imagen o vídeo de violencia extrema o abiertamente, la comisión de delitos. Esto es así gracias, no solo a los sistemas de inteligencia artificial que analizan de forma automática las imágenes que se suben, sino al arduo trabajo de personas que ven miles y miles de material filtrando el no apropiado.

El Wall Street Journal ha entrevistado a varias personas que trabajaban en estos puestos de control, dejando en evidencia el auténtico horror que pasan las personas en estos puestos, viendo a diario miles y miles de imágenes de violencia extrema, pornografía y maltrato animal. El diario lo define como "el peor trabajo en tecnología". ¿Qué consecuencias tiene en la salud mental de estas personas?

(Pixabay)

Así, por ejemplo, Sarah Katz -una controladora de contenido en Facebook- dice haber visto vídeos de bestialismo y abusos sexuales con menores en su segundo día de trabajo; esta joven verificaba la friolera de 8.000 fotografías y vídeos cada día que habían recibido algún tipo de alerta por contenido inapropiado. Esta joven explica en el reportaje que no se prepara de ninguna manera a estas personas para enfrentarse a dicho contenido, con el consiguiente y devastador impacto psicológico.

La mayoría de estos perfiles son, además subcontratados de los grandes y llevan a cabo lo que ellos consideran "el trabajo sucio". Y trabajo, precisamente, no les falta: se estima que Facebook recibe una media de un millón de reportes de contenido inapropiado cada día, que debe ser comprobado por una persona. Y el contenido no deja de crecer, haciendo cada vez más grande este problema.

Los gigantes de la red lo saben y trabajan a marchas forzadas en sistemas de aprendizaje automático que es capaz de hacer este durísimo trabajo por los humanos; sin embargo, las máquinas están todavía muy lejos de alcanzar la eficacia de filtrado de una persona, y por este motivo el problema persiste. Aunque no hay cifras oficiales, se estima que decenas de miles de personas desempeñan este trabajo sucio cada día y muchos de ellos tiran la toalla a los pocos días, incapaces de asumir lo que ven.

Wall Street Journal