Anuncio
Mercados españoles cerrados
  • IBEX 35

    11.074,60
    -36,70 (-0,33%)
     
  • Euro Stoxx 50

    5.083,42
    +1,68 (+0,03%)
     
  • Dólar/Euro

    1,0792
    -0,0001 (-0,01%)
     
  • Petróleo Brent

    87,45
    -0,03 (-0,03%)
     
  • Oro

    2.254,80
    +16,40 (+0,73%)
     
  • Bitcoin EUR

    65.566,12
    +1.123,77 (+1,74%)
     
  • CMC Crypto 200

    885,54
    0,00 (0,00%)
     
  • DAX

    18.492,49
    +15,40 (+0,08%)
     
  • FTSE 100

    7.952,62
    +20,64 (+0,26%)
     
  • S&P 500

    5.254,35
    +5,86 (+0,11%)
     
  • Dow Jones

    39.807,37
    +47,29 (+0,12%)
     
  • Nasdaq

    16.379,46
    -20,06 (-0,12%)
     
  • Petróleo WTI

    83,11
    -0,06 (-0,07%)
     
  • EUR/GBP

    0,8547
    +0,0001 (+0,01%)
     
  • Plata

    25,10
    +0,18 (+0,74%)
     
  • NIKKEI 225

    40.168,07
    -594,66 (-1,46%)
     

ONU: Las asistentes de voz femeninas fomentan el sexismo

NUEVA YORK (AP) — ¿Las voces femeninas detrás de Siri de Apple y Alexa de Amazon están amplificando la discriminación de género en el mundo?

Las Naciones Unidas creen que así es.

En un informe publicado el miércoles por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura se cuestiona lo que describe como una “sumisión precargada” en las asistentes de voz operadas por Apple, Amazon, Google y Microsoft, que de fábrica son femeninas.

El informe se titula “Me sonrojaría si pudiera” en referencia a la respuesta que Siri, de Apple, da después de escuchar insultos sexistas de los usuarios.

ANUNCIO

Consideró que es un problema el que millones de personas se acostumbren a darle órdenes a asistentes con voz femenina que “siempre responden con cortesía”, incluso cuando los seres humanos las acosan.

La agencia recomienda que las compañías tecnológicas dejen de hacer que sus asistentes digitales sean femeninas de fábrica y las programen para desalentar los insultos basados en el género y el lenguaje abusivo.