Mercados españoles cerrados en 47 mins
  • IBEX 35

    8.544,40
    +104,70 (+1,24%)
     
  • Euro Stoxx 50

    4.260,47
    +123,36 (+2,98%)
     
  • Dólar/Euro

    1,1249
    -0,0038 (-0,34%)
     
  • Petróleo Brent

    75,37
    +2,29 (+3,13%)
     
  • Oro

    1.783,20
    +3,70 (+0,21%)
     
  • BTC-EUR

    46.087,13
    +2.424,86 (+5,55%)
     
  • CMC Crypto 200

    1.336,77
    +15,49 (+1,17%)
     
  • DAX

    15.763,30
    +382,51 (+2,49%)
     
  • FTSE 100

    7.332,29
    +100,01 (+1,38%)
     
  • S&P 500

    4.686,47
    +94,80 (+2,06%)
     
  • Dow Jones

    35.748,50
    +521,47 (+1,48%)
     
  • Nasdaq

    15.668,82
    +443,67 (+2,91%)
     
  • Petróleo WTI

    72,05
    +2,56 (+3,68%)
     
  • EUR/GBP

    0,8496
    -0,0010 (-0,12%)
     
  • Plata

    22,43
    +0,17 (+0,77%)
     
  • NIKKEI 225

    28.455,60
    +528,23 (+1,89%)
     

Sistema detección de pornografía infantil de Apple tiene fallas

·2 min de lectura

(Bloomberg) -- Un método promulgado por Apple Inc. y la Unión Europea para analizar los repositorios de almacenamiento digital de las personas en busca de pruebas de pornografía infantil y otros contenidos ilegales es una “tecnología peligrosa” que no se puede aplicar de una forma que cumpla la doble función de preservar la privacidad de los usuarios y ayudar a las agencias gubernamentales a realizar investigaciones, según escribió un grupo de destacados criptógrafos y otros expertos en seguridad en un informe publicado el viernes.

Most Read from Bloomberg

El informe, de 46 páginas, tiene entre sus 14 autores a pioneros del software de cifrado. En él se describen en detalle lo que los autores consideran los numerosos riesgos de una técnica llamada “escaneo del lado del cliente”, que estuvo en el centro de una controversia que estalló cuando Apple, con sede en Cupertino, California, anunció en agosto un plan para analizar las cuentas de Fotos de iCloud de los usuarios en busca de imágenes sexualmente explícitas de niños y luego informar los casos a las autoridades pertinentes. Más tarde, Apple pospuso los planes en medio de las reacciones. El periódico New York Times informó anteriormente sobre las preocupaciones de los expertos.

Los autores del nuevo informe escribieron que el método “por su naturaleza crea graves riesgos para la seguridad y la privacidad de toda la sociedad, mientras que la ayuda que puede proporcionar a las fuerzas de orden es, en el mejor de los casos, problemática”, citando las “múltiples formas en las que el escaneo del lado del cliente puede fallar, puede ser evadido y puede ser abusado”.

“En pocas palabras, es una tecnología peligrosa”, decía el informe. “Incluso si se implementara inicialmente para buscar material de abuso sexual infantil, contenido que es claramente ilegal, habría una enorme presión para expandir su alcance. Entonces sería difícil encontrar alguna forma de resistir su expansión o de controlar el abuso del sistema”.

Nota Original:Experts Detail Flaws in Apple Child-Porn Tracking System

Most Read from Bloomberg Businessweek

©2021 Bloomberg L.P.

Nuestro objetivo es crear un lugar seguro y atractivo para que los usuarios puedan establecer conexiones en función de sus intereses y pasiones. A fin de mejorar la experiencia de nuestra comunidad, hemos suspendido los comentarios en artículos temporalmente