Anuncio
Mercados españoles cerrados
  • S&P 500

    5.254,35
    +5,86 (+0,11%)
     
  • Nasdaq

    16.379,46
    -20,06 (-0,12%)
     
  • NIKKEI 225

    40.168,07
    -594,66 (-1,46%)
     
  • Dólar/Euro

    1,0790
    -0,0040 (-0,37%)
     
  • Petróleo Brent

    87,45
    +1,36 (+1,58%)
     
  • Bitcoin EUR

    65.555,98
    +1.679,93 (+2,63%)
     
  • CMC Crypto 200

    885,54
    0,00 (0,00%)
     
  • Oro

    2.241,50
    +28,80 (+1,30%)
     
  • HANG SENG

    16.541,42
    +148,58 (+0,91%)
     
  • Petróleo WTI

    83,01
    +1,66 (+2,04%)
     
  • EUR/GBP

    0,8547
    -0,0020 (-0,23%)
     
  • Plata

    24,99
    +0,24 (+0,96%)
     
  • IBEX 35

    11.074,60
    -36,70 (-0,33%)
     
  • FTSE 100

    7.952,62
    +20,64 (+0,26%)
     

Facebook utilizó a millones de usuarios como conejillos de indias para influir en su voto

¿Has descubierto las ideas de Pablo Iglesias gracias a las noticias que tus amigos han compartido en Facebook? ¿Has conocido los últimos escándalos de corrupción a través de la red social? ¿Vas a votar a algún candidato en las próximas elecciones en base a lo que ves en tu muro= En definitiva: ¿Crees que tu forma de pensar está influída por lo que lees en Facebook?

Puede que nunca te hayas hecho estas preguntas en la vida, pero deberías empezar a planteártelo. Facebook es ahora mismo el mayor portal de noticias del mundo, y la actualidad no la guía ningún editor ni ningún director de ningún medio de comunicación. Las decisiones las toman los usuarios, que son los que comparten la información y el algoritmo de la red social, que es el que decide qué contenido vas a ver y cuál no de acuerdo a una serie de datos, que van desde el historial las publicaciones a las que has dado 'me gusta' (que suelen mostrarse más), hasta lo que quiere potenciar la propia red social.



Esta última ‘mano’ tiene mucho poder. Tanto que según un estudio poco conocido y del que se hace eco la web Mother Jones, influyo de manera decisiva sobre el 3% de un numeroso grupo de norteamericanos que fueron utilizados como conejillos de indias por la red social durante las últimas elecciones presidenciales, las que se celebraron en el año 2012 y en las que Barack Obama revalidó triunfo.

Manipuló el muro de 1.9 millones de personas
Según el trabajo, Facebook manipuló el feed de noticias de 1.900.000 usuarios estadounidenses, sin su consentimiento, para que en las posiciones más destacadas solo aparecieran noticias de actualidad. Según los autores del trabajo, la red social no mostró solo información de la campaña electoral, sino que se traba de enseñar más noticias ‘en general’, de una lista de 100 medios, entre los que se encontraban The New York Times o Fox News.

La hipótesis era que a una mayor exposición a las noticias, los usuarios iban a movilizarse y acudir a las urnas. Facebook no ha hecho públicos los resultados. Solo se sabe que el 3% de los sujetos cambió su intención de voto.

[Relacionado: Por fin: WhatsApp ya notifica cuando otro usuario lee nuestros mensajes]

Muestra del poderío de Facebook
La web que ha descubierto la manipulación asegura que la compañía que fundó Mark Zuckerberg ha utilizado este estudio en reuniones con empresas para mostrar el poder de persuasión de su producto. Imaginamos que con esta acción intentarán convencer a posibles anunciantes de que su presencia en la red social de veras impacta sobre el público: cuanto más se muestren en el muro de últimas noticias, más venderán. Eso sí, previo pago a Facebook.

Mother Jones asegura que los resultados completos del estudio todavía no se han hecho públicos porque están siendo revisados por una revista científica que publicará las conclusiones. Hasta entonces, solo sabemos el dato del 3% de los usuarios que cambiaron su intención de voto

¿Qué impacto tienen en tu forma de pensar las noticias que comparten tus amigos en Facebook?
Hace unos meses, descubrimos que Facebook había llevado a cabo un experimento con sus usuarios. Los ingenieros de la red social alteraron el algoritmo que controla las publicaciones que veían en el muro para mostrar a un grupo noticias positivas, y a otro, negativas.

Los del primer conjunto tendían a comentar más y a dar más al botón de ‘me gusta’, mientras que los que vieron noticias deprimentes, de guerras y abusos, tendían a interactuar menos con los demás.

Facebook reconoció haber estudiado a 689.000 personas, y la noticia no sentó nada bien a muchos de los que utilizan la red social: el experimento se llevó a cabo sin su consentimiento y la opinión pública solo fue consciente de lo que pasó cuando se publicaron las conclusiones del trabajo en la web de la Academia Nacional de Ciencias de Estados Unidos.