Apple escaneará automáticamente las fotos del iPhone y iCloud en busca de pornografía infantil

Iniciado por El_Andaluz, 6 Agosto 2021, 14:17 PM

0 Miembros y 3 Visitantes están viendo este tema.

El_Andaluz



La fotografías subidas a iCloud desde el iPhone van a ser verificadas. Apple ha anunciado un nuevo sistema que permite buscar de forma automática contenido de abuso sexual a menores y similares. Mediante ello detecta este tipo de contenido prometiendo al mismo tiempo seguir respetando la privacidad del usuario.

El nuevo sistema está pensado para ayudar a las autoridades a hacer cumplir la ley y proteger a los menores. En principio, va a ser activado en Estados Unidos a finales de este año. Aunque en realidad tan sólo una de varias características que van a habilitar para proteger a menores de peligros online, como han anunciado en una declaración oficial.

El escaneo de fotografías en busca de contenido de abuso a menores en realidad no es nuevo. Servicios como Google Drive ya lo hacen también. La diferencia principal aquí es que Apple ha prometido desde un principio a los usuarios una nube cifrada y un contenido al que nadie puede acceder sin las claves de acceso. Y, en teoría, sigue siendo así.



crazykenny

Ha sido leer este tema y empezar a visualizar posibles quejas de los usuarios de Apple relacionadas con el tema de la privacidad, y, incluso, problemas con falsos positivos a raíz de este escaneo-.

Muchas gracias por vuestra atención,, y,, bueno, saludos.
A nivel personal, lo que me da mas miedo no son los planteamientos y acciones individuales, sino las realizadas en grupo, ya que estas ultimas pueden acabar con consecuencias especialmente nefastas para todos.
Se responsable, consecuente y da ejemplo.
http://informaticayotrostemas.blogspot.com.es/2013/12/situacion-de-la-educacion-actual-en.html
https://informaticayotrostemas.blogspot.com/

simorg

Citarposibles quejas de los usuarios de Apple relacionadas con el tema de la privacidad,

Claro, bajo el pretexto de la porno infantil se pretende husmear en todas la fotos publicadas.......mal, muy mal, se pasan la privacidad de los usuarios por el forro.....



Saludos.

B€T€B€

Cita de: simorg en  6 Agosto 2021, 19:51 PM
Claro, bajo el pretexto de la porno infantil se pretende husmear en todas la fotos publicadas.......mal, muy mal, se pasan la privacidad de los usuarios por el forro.....



Saludos.



Hace tiempo que se pasan la privacidad por el arco del triunfo, pero ahora lo pregonan a los cuatro vientos.
Eso si, han encontrado una justificación politicamente correcta...

Machacador

"Solo tu perro puede admirarte mas de lo que tu te admiras a ti mismo"

Danielㅤ

Cita de: B€T€B€ en  6 Agosto 2021, 22:42 PM


Hace tiempo que se pasan la privacidad por el arco del triunfo, pero ahora lo pregonan a los cuatro vientos.
Eso si, han encontrado una justificación politicamente correcta...

No sé qué tan correcta que ya han habido varios falsos positivos y eso es grave, porque no es lo mismo un posible malware que el contenido (foto o video) de pornografía infantil, imaginate que te digan que tienes ese tipo de material/fotografias en tus imágenes cuando jamás lo has tenido ni lo tendrías, pasarías un muy mal momento por una culpa tan grave como esa.....


Saludos
¡Regresando como cual Fenix! ~
Bomber Code © 2021 https://www.bombercode.net/foro/

Ayudas - Aportes - Tutoriales - Y mucho mas!!!

MCKSys Argentina

Cita de: Machacador en  6 Agosto 2021, 23:57 PM
Esta gente viola los derechos de los pedófilos... grrrrrr...

:rolleyes: :o :rolleyes:

Lo peor es que asume que todos sus usuarios son pedófilos; y por eso, les revisará sus celulares y archivos en la nube.

Saludos!
MCKSys Argentina

"Si piensas que algo está bien sólo porque todo el mundo lo cree, no estás pensando."


3n31ch

Lo curioso es que he de asumir que este sistema de reconocimiento está basado en una IA. Con cuantas fotografías de ese estilo la habrán entrenado?. ¿Se admite el uso de estas fotografías a empresas privadas (aun si so objetivo es "bueno")? Esa IA es pedofila? Preguntas que no me puedo dejar de hacer.


3n31ch