Forbes Ecuador
Innovacion

Apple retrasa la polémica función que escanea fotos en iPhones para detectar abuso infantil

Thomas Brewster

Share

Tras la reacción de clientes, grupos de defensa e investigadores, la firma decidió postergar la función en la que trabajaba la compañía de la manzana. Qué tenía en mente la empresa tecnológica.

13 Septiembre de 2021 13.30

Apple, aparentemente, estuvo escuchando a sus críticos. La firma anunció que retrasará el lanzamiento de una tecnología controvertida que escanearía las fotos del iPhone de los usuarios antes de que sean subidas a iCloud para verificar si tienen material de abuso sexual infantil (CSAM, por sus siglas en inglés).

En su declaración enviada a varios medios de comunicación, un vocero dijo: “El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los chicos de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material de abuso sexual infantil".

En esta línea, agregó: "Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, decidimos tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica“.

Apple

Apple había elaborado planes en los que utilizaría código para escanear archivos de imágenes y compararlos con bases de datos de imágenes CSAM conocidas. Lo haría haciendo que el código en un iPhone no mirara las fotos en sí mismas, sino hash, representaciones alfanuméricas únicas de una imagen.

Si los valores hash en el teléfono coincidían con los de las imágenes CSAM conocidas, el personal de Apple verificaría la foto para ver si realmente era material de explotación infantil, antes de decidir si pasar o no la información a los investigadores policiales.

Detractores y críticos

Apple enfrentó una reacción violenta significativa por el lanzamiento de la función, a pesar de sus buenas intenciones de capturar a quienes comparten imágenes y videos de abuso infantil en sus teléfonos y servidores.

La principal causa de ansiedad era que Apple hiciera el escaneo en el dispositivo sin el permiso del usuario y que existiera la posibilidad de que un gobierno exigiera a Apple que comenzara a escanear en busca de otro contenido que no sea CSAM. China, por ejemplo, podría presionar a Apple para que comience a buscar imágenes que expresen sentimientos contrarios al gobierno, temían los críticos.

Apple buscó disipar los temores publicando una serie de preguntas frecuentes, en las que dijo que nunca se sometería a tales demandas y señaló que el escaneo, aunque ocurrió en iPhones en lugar de iCloud, solo cubriría las fotos que estaban programadas para ir a el iCloud. Los usuarios podían evitar que Apple escaneara sus imágenes simplemente desactivando el uso compartido de fotos con iCloud.

Luego fue más allá, diciendo que solo vería fotos manualmente si se encontraran más de 30 coincidencias en un dispositivo. Y ahora, un mes después de anunciar la función por primera vez, se está retrasando. Se debía implementar con iOS 15. Ahora no está claro cuándo se implementará en los iPhones de los usuarios.

*Con información de Forbes US.

loading next article