El fin de la privacidad en Apple está cerca, según nuevo documento

Apple toma decisión que afectará la privacidad de sus usuarios.

Apple
Apple

Todos somos testigos en que Apple siempre ha sacado cara por la privacidad que ofrece, lamentablemente para los usuarios de la manzana mordida podría haber unos cambios que pondría el fin a la privacidad en los dispositivos del gigante de Cupertino, aquí te contamos todos los detalles.

La privacidad en Apple está en peligro

Apple ha publicado un nuevo documento donde la firma explica que tiene planeado escanear imágenes con contenido de abuso sexual infantil utilizando su algoritmo NeuralMatch, el cual ha sido entrenado con 200 mil imágenes de este tipo recolectadas por el NCMEC.

En Apple, nuestro objetivo es crear tecnología que empodere a las personas y enriquezca sus vidas, al mismo tiempo que las ayuda a mantenerse seguras. Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material de abuso sexual infantil (MASI).

Privacidad Apple
Privacidad Apple

Si bien es cierto, Apple tiene buenas intenciones con este nuevo objetivo, pues permitiría capturar a personas que contenga este tipo de material en su dispositivo, pero para ello tendría que sacrificar la privacidad de sus usuarios ya que cada foto cargada en iCloud recibirá un «vale de seguridad», y si el algoritmo detecta alguna foto sospechosa, la imagen será descifrada y si se determina que es ilegal, será enviada al NCMEC.

La explotación infantil es un problema grave, y Apple no es la primera empresa de tecnología en doblar su postura de protección de la privacidad en un intento de combatirla», escribió la firma de derechos digitales, y agregó que la puerta trasera siempre es una puerta trasera, independientemente de lo bien que esté diseñado puede ser. Pero esa elección tendrá un alto precio para la privacidad general del usuario. Apple puede explicar en detalle cómo su implementación técnica preservará la privacidad y la seguridad en su puerta trasera propuesta, pero al final del día, incluso una investigación minuciosamente documentada y cuidadosamente pensada» hacia fuera, y la puerta trasera de alcance estrecho sigue siendo una puerta trasera; declaró la Electronic Frontier Foundation.

Los investigadores de seguridad aplauden el plan de Apple, aunque no del todo ya que afirman que esta decisión perjudicaría a la privacidad de los usuarios, pues los gobiernos de todo el mundo tendrán acceso efectivo a los datos de los usuarios, incluso si no se trata de algún material ilegal. Vale la pena mencionar que este programa está planeado en empezar en los EE.UU, pero no hay dudas en que muchos gobiernos se sumarían a realizar demandas similares.

Si este plan de protección contra el material de abuso sexual infantil es aprobado, todo apunta a que entrará a funcionar a fines de este año a través de una actualización en iOS 15, iPadOS 15, watchOS 8 y macOS Monterrey. Para los usuarios de Apple, deben de tener en cuenta lo siguiente:

  • Apple planea agregar una función de escaneo que escaneará todas las fotos a medida que se cargan en iCloud Photos para ver si coinciden con una foto en la base de datos de CSAM conocido que mantiene el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).
  • También escaneará todas las imágenes de iMessage enviadas o recibidas por cuentas de niños (cuentas designadas como propiedad de un menor) en busca de material sexualmente explícito. Si el niño es menor de edad, Apple le advertirá si intenta enviar o recibir fotos sexualmente explícitas y notificará a los padres.

¿Qué te ha parecido esta nueva noticia? Danos tu opinión.

¡Compra con nuestros enlaces y apóyanos! 🌟🛒 Podemos Ganar Comisiones 💸