A Apple anunciou que adiará a implementação da ferramenta para analisar suspeitas de abuso infantil nas imagens enviadas à plataforma de armazenamento iCloud.
“Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes”, disse a big tech.
O anúncio do sistema, em 6 de agosto, causou burburinho de grupos defensores da privacidade on-line. Muitos questionaram se a varredura de todas as imagens do iCloud não poderia ser usada para vistoriar padrões de consumo e comportamento dos usuários –em especial por governos.
Se correspondida, a Apple poderia rever as imagens relatadas e, confirmando o abuso, o usuário teria a conta desativada. Ele ainda poderia ser denunciado para o Centro Nacional de Exploração e Desaparecimento de Crianças dos EUA.
A mesma ferramenta vai identificar automaticamente as imagens sexualmente explícitas enviadas nas mensagens do iMessage e possibilitaria que os pais ativem filtros automáticos para as caixas de entrada dos filhos.
À época, a Apple negou que as mudanças pudessem degradar a criptografia. As inovações, segundo a empresa, foram cuidadosamente pensadas para não perturbar a privacidade dos usuários e sim a protegerem.