Apple implementará un sistema de revisión de fotos para prevenir pornografía infantil
Los grupos de seguridad infantil elogiaron a Apple al sumarse a Facebook, Microsoft y Google de Alphabet en la adopción de tales medidas.

Apple pondrá en marcha un sistema para revisar las fotos en busca de imágenes de abuso infantil en cada país, dependiendo de las leyes locales, dio a conocer la compañía recientemente.

El jueves, Apple había anunciado que pondría en marcha un sistema que revisa las fotos en busca de este tipo de imágenes antes de que se suban desde los iPhones en Estados Unidos a su servicio de almacenamiento iCloud.

Los grupos de seguridad infantil elogiaron a Apple al sumarse a Facebook, Microsoft y Google de Alphabet en la adopción de tales medidas.

Pero la comprobación de fotografías de Apple en el propio iPhone suscitó la preocupación de que la empresa esté indagando en los dispositivos de los usuarios de forma que pueda ser aprovechada por los gobiernos.

Apple.

Muchas otras empresas tecnológicas comprueban las fotos después de subirlas a los servidores.

En una rueda de prensa el viernes, Apple dijo que hará planes para expandir el servicio en función de las leyes de cada país donde opera.

La empresa dijo que los matices de su sistema, como los “vales de seguridad” que pasan del iPhone a los servidores de Apple y que no contienen datos útiles, protegerán a Apple de las presiones de los gobiernos para que identifique material que no sean imágenes de abusos a menores.

Apple cuenta con un proceso de revisión humana que actúa como respaldo contra los abusos del gobierno, añadió. La empresa no pasará los informes de su sistema de comprobación de fotos a las policías si la revisión no encuentra imágenes de abuso infantil.

*Publicada en Forbes Colombia.