Anuncio
Mercados españoles cerrados
  • IBEX 35

    10.729,50
    -35,50 (-0,33%)
     
  • Euro Stoxx 50

    4.918,09
    -18,48 (-0,37%)
     
  • Dólar/Euro

    1,0661
    +0,0015 (+0,14%)
     
  • Petróleo Brent

    87,20
    +0,09 (+0,10%)
     
  • Oro

    2.406,70
    +8,70 (+0,36%)
     
  • Bitcoin EUR

    60.221,90
    +393,47 (+0,66%)
     
  • CMC Crypto 200

    1.371,97
    +59,34 (+4,52%)
     
  • DAX

    17.737,36
    -100,04 (-0,56%)
     
  • FTSE 100

    7.895,85
    +18,80 (+0,24%)
     
  • S&P 500

    4.967,23
    -43,89 (-0,88%)
     
  • Dow Jones

    37.986,40
    +211,02 (+0,56%)
     
  • Nasdaq

    15.282,01
    -319,49 (-2,05%)
     
  • Petróleo WTI

    83,24
    +0,51 (+0,62%)
     
  • EUR/GBP

    0,8612
    +0,0056 (+0,65%)
     
  • Plata

    28,75
    +0,37 (+1,29%)
     
  • NIKKEI 225

    37.068,35
    -1.011,35 (-2,66%)
     

El oscuro daño que provoca el algoritmo de YouTube

El algoritmo de recomendación de YouTube sugiere vídeos con desinformación, violencia, incitación al odio y otros contenidos que infringen sus propias políticas, según afirma una investigación independiente. Es decir, que la popular web de vídeos muestra contenido nocivo sin que sus usuarios lo busquen.

Una investigación de la Fundación Mozilla, la organización sin ánimo de lucro que está detrás del navegador web Firefox, pidió a más de 37.000 usuarios de YouTube que actuaran como guardianes y denunciaran contenidos nocivos a través de una extensión del navegador que luego fue analizada por asistentes de investigación de la Universidad de Exeter, en Inglaterra. Ese contenido suministrado por los usuarios incluía información errónea de Covid-19, teorías de conspiración política y contenido violento y gráfico, incluyendo contenido sexual que parecía ser dibujos animados para niños, según el análisis.

YouTube unveils their new paid subscription service at the YouTube Space LA in Playa Del Rey, Los Angeles, California, United States October 21, 2015. Alphabet Inc's YouTube will launch a $10-a-month subscription option in the United States on October 28 that will allow viewers to watch videos from across the site without interruption from advertisements, the company said on Wednesday.  REUTERS/Lucy Nicholson

La mayoría -el 71%- de las denuncias procedían de vídeos recomendados por el algoritmo de YouTube, y los vídeos recomendados tenían un 40% más de probabilidades de ser denunciados que los vídeos buscados intencionadamente, según el informe. Los vídeos denunciados también superaron a otros vídeos, adquiriendo un 70 por ciento más de visualizaciones al día que otros vistos por voluntarios.

ANUNCIO

"Cuando se sugiere activamente que la gente vea contenidos que violan las políticas de YouTube, el algoritmo parece estar trabajando en contra de los objetivos declarados de la plataforma, sus propias directrices de la comunidad, y el objetivo de hacer de la plataforma un lugar seguro para la gente", dijo Brandi Geurkink, de Mozilla.

El informe ofrece una nueva visión del sistema de recomendaciones de YouTube, que ha sido objeto de críticas en los últimos años por su propensión a empujar a algunos espectadores hacia contenidos más extremos. YouTube ha introducido algunos cambios en el sistema, pero sigue siendo una fuente de preocupación entre los activistas de Internet y los investigadores del extremismo.

Según el informe de Mozilla, el estudio de crowdsourcing es el mayor de su clase y sólo "la punta del iceberg". La investigación, basada en 3.362 vídeos autoidentificados como "lamentables", procedentes de 91 países desde julio de 2020 hasta mayo, ofrece una ventana limitada pero importante a la opaca máquina de recomendación de YouTube.

YouTube dijo que los videos promovidos por el sistema de recomendación resultan en más de 200 millones de vistas al día desde su página de inicio, y que tira de más de 80 mil millones de piezas de información.

YouTube es el segundo sitio web más popular del mundo, después de su empresa matriz, Google. Sin embargo, se sabe poco sobre su algoritmo de recomendación, que impulsa el 70% de lo que ven los usuarios.

Los vídeos en habla no inglesa escapan de la censura

El informe destaca las formas en que los vídeos que no son de habla inglesa tienen más probabilidades de ser amplificados y escapar a la moderación. El índice de vídeos "lamentables" era un 60 por ciento mayor en los países de habla no inglesa (sobre todo en Brasil, Alemania y Francia) y los vídeos perjudiciales relacionados con la pandemia eran más comunes en los idiomas no ingleses.

Según el informe, casi 200 vídeos recomendados a los voluntarios fueron finalmente eliminados por YouTube. Estos vídeos tenían un total de 160 millones de visitas antes de ser eliminados.

Mozilla publicó por primera vez historias individuales de usuarios que reportaron experiencias negativas con YouTube en 2019 como parte de una campaña que llamaron "YouTube Regrets." Esas historias de radicalización y caída en agujeros de conejo reflejan los hallazgos de las investigaciones sobre los peligros de los algoritmos de las redes sociales publicados por organizaciones de noticias e investigadores académicos. La nueva investigación de Mozilla fue un intento de sortear la reticencia de YouTube a proporcionar datos a los investigadores y validar las pruebas anecdóticas de su proyecto original, dijo Geurkink.

"Si YouTube no quería facilitar datos, podíamos pedir a la gente que nos los enviara", explica Geurkink. "Me sorprendió lo rápido que los datos confirmaron algunas de las cosas que ya habíamos estado escuchando de la gente".

El informe recomienda varias soluciones, como que los usuarios actualicen su configuración de datos en YouTube y Google, que las plataformas publiquen informes de transparencia que incluyan información sobre los algoritmos de recomendación y que los responsables políticos promulguen normativas que obliguen a esa transparencia. Los actuales informes trimestrales de YouTube incluyen datos limitados sobre la eliminación de vídeos y las visualizaciones.

"En última instancia, lo que necesitamos es una supervisión más sólida, una verdadera transparencia y la capacidad de examinar estos sistemas", dijo Geurkink. "No podemos seguir con este paradigma en el que los investigadores plantean problemas, las empresas dicen 'vale, ya está resuelto', y seguimos con nuestras vidas".

Más noticas que te pueden interesar: