Tecnología

Apple retrasa la polémica función de “seguridad infantil”

Apple cedió ante los defensores de la privacidad y las libertades civiles al aceptar retrasar y modificar un polémico plan para escanear las fotos de los usuarios en busca de pornografía infantil.

Apple retrasa la polémica función de seguridad infantil

La herramienta de la compañía, llamada “neuralMatch”, escanearía las imágenes de los dispositivos de los usuarios de Apple antes de subirlas a iCloud. Otra herramienta buscaría pornografía infantil en los mensajes cifrados de los usuarios.

Después de que Apple anunciara esta iniciativa en agosto, los defensores de la privacidad contraatacaron a la empresa.

La Electronic Frontier Foundation, un grupo de defensa de la privacidad digital, ha reunido más de 25.000 firmas en una petición contra la herramienta, mientras que la American Civil Liberties Union afirmó en una carta que la herramienta “censuraría la expresión protegida, amenazaría la privacidad y la seguridad de personas de todo el mundo y tendría consecuencias desastrosas para muchos niños”.

La directora ejecutiva de la Electronic Frontier Foundation, Cindy Cohn, dijo en una declaración a The Post que el retraso del viernes, aunque bienvenido, no va lo suficientemente lejos.

“La compañía debe ir más allá de escuchar y abandonar sus planes de poner una puerta trasera en su encriptación por completo”, dijo Cohn.

“Estas características crearían un enorme peligro para la privacidad y la seguridad de los usuarios del iPhone, ofreciendo a los gobiernos autoritarios un sistema de vigilancia masiva llave en mano para espiar a los ciudadanos”.

Los críticos dicen que la herramienta podría ser fácilmente utilizada por gobiernos represivos para rastrear y castigar a los usuarios por todo tipo de contenidos, además de la pornografía infantil, incluyendo el contenido político.

Y algunos activistas de la privacidad han señalado la relación aparentemente complaciente de Apple con el gobierno de China, donde se fabrica la gran mayoría de sus dispositivos, como prueba de que la empresa permitiría que la herramienta se utilizara para la represión política.

En una llamada con periodistas antes del anuncio del viernes, se preguntó a un representante de Apple si la empresa saldría del mercado chino si las autoridades le exigían que utilizara la herramienta de escaneo para otros fines. El representante de Apple respondió que tal decisión estaría “por encima de su nivel salarial”, informó Vice.

En el anuncio, Apple no proporcionó detalles sobre cómo cambiaría sus funciones de protección de menores, pero reconoció la reacción.

“Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos un tiempo adicional en los próximos meses para recoger las opiniones y hacer mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”, dijo Apple en un comunicado.

En un principio, estaba previsto que la función se pusiera en marcha este año. Ahora no está claro cuándo planea la compañía lanzar las funciones o cómo se modificarán.

Apple retrasa la polémica función de seguridad infantil

Según la compañía, la herramienta sólo marcará las imágenes que ya están en una base de datos de pornografía infantil conocida. Esto quiere decir, que por ejemplo, los padres que toman fotos de sus hijos bañándose no serían marcados.

Otra de las funciones de Apple habría escaneado las imágenes enviadas a menores a través de iMessage en busca de pornografía, difuminando dichas imágenes y enviando una advertencia al niño.

El investigador de ciberseguridad de la Universidad Johns Hopkins, Matthew Green, un crítico de las funciones de Apple, dijo que la medida del viernes “parece prometedora.”

Hablen con las comunidades técnicas y políticas antes de hacer lo que sea que vayan a hacer”, escribió Green en un hilo de Twitter dirigido a Apple.

Fuente The New York Post.

También puedes leer: Snowden advierte que programa de Apple se utilizará para espiar