Anuncio
Mercados españoles cerrados en 3 hrs 41 min
  • IBEX 35

    10.707,70
    -57,30 (-0,53%)
     
  • Euro Stoxx 50

    4.918,81
    -17,76 (-0,36%)
     
  • Dólar/Euro

    1,0656
    +0,0010 (+0,10%)
     
  • Petróleo Brent

    86,49
    -0,62 (-0,71%)
     
  • Oro

    2.393,40
    -4,60 (-0,19%)
     
  • Bitcoin EUR

    61.347,20
    +2.579,74 (+4,39%)
     
  • CMC Crypto 200

    1.335,97
    +23,35 (+1,81%)
     
  • DAX

    17.731,11
    -106,29 (-0,60%)
     
  • FTSE 100

    7.832,94
    -44,11 (-0,56%)
     
  • S&P 500

    5.011,12
    -11,09 (-0,22%)
     
  • Dow Jones

    37.775,38
    +22,07 (+0,06%)
     
  • Nasdaq

    15.601,50
    -81,87 (-0,52%)
     
  • Petróleo WTI

    82,17
    -0,56 (-0,68%)
     
  • EUR/GBP

    0,8564
    +0,0008 (+0,10%)
     
  • Plata

    28,32
    -0,06 (-0,21%)
     
  • NIKKEI 225

    37.068,35
    -1.011,35 (-2,66%)
     

Mark Zuckerberg sabe que Facebook es un peligro para la sociedad pero le da absolutamente igual mientras siga ganando millones

Muevo revés para Mark Zuckerberg y su red social. Facebook (FB) tenía evidencia de que sus algoritmos fomentan la polarización y "explotan la atracción del cerebro humano hacia la división", pero los altos ejecutivos, incluido el CEO Mark Zuckerberg, entorpecieron, debilitaron o directamente, eliminaron las soluciones propuestas para evitar esta situación, según revela una investigación de The Wall Street Journal.

Esta es la última piedra en el camino de Facebook, una compañía vapuleada por el escándalo de Cambridge Analytica, los discursos de odio, las campañas políticas, las tergiversaciones de la Inteligencia rusa, y que se mantiene en pie gracias a la monstruosa cantidad de datos que ha recopilado de sus millones de usuarios, tanto de la propia Facebook como de WhatsApp o Instagram.

Mark Zuckerberg sabe que Facebook es un peligro para la sociedad pero le da absolutamente igual mientras siga ganando millones
Mark Zuckerberg sabe que Facebook es un peligro para la sociedad pero le da absolutamente igual mientras siga ganando millones

El esfuerzo por comprender mejor el efecto de Facebook en el comportamiento de los usuarios fue una respuesta al escándalo de Cambridge Analytica, y sus investigadores internos determinaron que, contrariamente a la misión de la compañía de conectar el mundo, sus productos estaban teniendo el efecto contrario, según el medio.

ANUNCIO

Al parecer, una investigación interna de Facebook llevada a cabo en 2016 encontró que "el 64% de todas las uniones de usuarios a grupos extremistas se deben a las propias herramientas de recomendación de Facebook", y la mayoría de las personas se unen por sugerencia de los algoritmos "Grupos a los que debes unirte" y "Descubrir" de Facebook. "Nuestros sistemas de recomendación aumentan el problema", alertaron los trabajadores de Facebook encargados de la investigación, según The Wall Street Journal.

El mismo periódico informa que los equipos de trabajo de Facebook lanzaron múltiples soluciones a este problema, incluida la limitación de la difusión de información de los usuarios más hiperactivos e hiperpartidarios de los grupos, sugiriendo una variedad más amplia de grupos de los que los usuarios normalmente podrían encontrar, y creando subgrupos para debates acalorados para evitar que descarrilen grupos enteros.

Pero estas propuestas fueron rechazadas o diluidas significativamente por el mismísimo Mark Zuckerberg y por el jefe de políticas de Facebook, Joel Kaplan, según el periódico, que informó que Zuckerberg finalmente perdió interés en tratar de abordar el problema de polarización y estaba más preocupado por el potencial de limitar el crecimiento de los usuarios.

En respuesta al discurso sobre limitar la propagación de las publicaciones de los usuarios hiperactivos, Zuckerberg aceptó una versión diluida y pidió al equipo que por favor en el futuro no investigaran ese tipo de situaciones que se producían en Facebook.

Los investigadores de la compañía también determinaron que debido a una mayor presencia de cuentas de extrema derecha y páginas que publican contenido en Facebook, cualquier cambio, incluidos ajustes apolíticos, habría afectado desproporcionadamente a los conservadores.

Eso preocupó a Kaplan, quien previamente detuvo un proyecto llamado "Common Ground" que tenía como objetivo fomentar un discurso político más saludable en la plataforma.

En última instancia, muchos de los esfuerzos no se incorporaron a los productos de Facebook, y los gerentes les dijeron a los empleados en septiembre de 2018 que la compañía estaba cambiando "del bien social al valor individual", según The Wall Street Journal.

Sin embargo, Guy Rosen, vicepresidente de integridad de Facebook, también respondió a los informes del Wall Street Journal en una publicación de blog el miércoles. Rosen aseguró que Facebook ha tomado una serie de medidas para combatir la polarización, como priorizar el contenido de familiares y amigos en las noticias de los usuarios, no recomendar grupos que violen sus términos, prohibir el discurso de odio y el contenido que podría causar daños en el mundo real, y asociarse con grupos de verificación de hechos.

Pero todo esto da igual. En 2019, Facebook ingresó 55.000 millones de dólares, y el patrimonio de su CEO, Mark Zuckerberg, ronda los 80.000 millones de dólares. Y eso es lo único que importa para la compañía.

Más historias que te pueden interesar:

Cómo borrar mensajes en Facebook Messenger fácilmente

Qué hay tras los 400 millones de dólares que Facebook ha gastado en comprar el mayor creador de GIFs

El fundador de Amazon será el primer billonario del mundo