Ao dar esse passo, a Apple está seguindo algumas outras grandes empresas de tecnologia, como Google e Facebook.
A Apple anunciou na quinta-feira (5), que vai começar a testar um novo sistema para, automaticamente, enviar fotos de iPhones e de contas do iCloud para um banco de dados de imagens de abuso sexual infantil, ao mesmo tempo em que alertará as autoridades conforme necessário.
O novo serviço vai transformar as fotos em um dispositivo em um conjunto ilegível de hashes — ou números complexos — armazenados nos aparelhos dos usuários, conforme explicou a empresa em uma entrevista coletiva. Esses números serão comparados com um banco de dados de hashes fornecido pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos Estados Unidos.
Ao dar esse passo, a Apple (AAPL) está seguindo algumas outras grandes empresas de tecnologia, como o Google (GOOG) e o Facebook (FB). Mas também está tentando encontrar um equilíbrio entre segurança e privacidade, a última das quais a Apple enfatizou como um ponto de venda central para seus dispositivos.
Alguns defensores da privacidade foram rápidos ao levantar preocupações sobre a provável alteração da companhia.
“A Apple está substituindo seu sistema de mensagens criptografadas de ponta a ponta, padrão da indústria, por uma infraestrutura para vigilância e censura, que será vulnerável a abusos e aumento de escopo não apenas nos Estados Unidos, mas em todo o mundo”, disse Greg Nojeim, co-diretor do Projeto de Segurança e Vigilância do Centro para a Democracia e Tecnologia. “A Apple deve abandonar essas mudanças e restaurar a fé de seus usuários na segurança e na integridade de seus dados em seus dispositivos e serviços.”
Em um post em seu site descrevendo as atualizações, a empresa disse: “O método da Apple é projetado tendo a privacidade do usuário em mente.” A companhia enfatizou que a ferramenta não “escaneia” as fotos do usuário e apenas as imagens do banco de dados serão incluídas na análise. (Isso deve significar que uma foto inofensiva de um usuário de seu filho na banheira não será sinalizada.)
A Apple também disse que o dispositivo criará um “voucher de segurança” duplamente criptografado — um pacote de informações enviado aos servidores — que é codificado em fotos. Assim que houver um certo número de vouchers de segurança sinalizados, a equipe de revisão da Apple será alertada.
Em seguida, ele decodificará o voucher, desativará a conta do usuário e alertará o Centro Nacional para Crianças Desaparecidas e Exploradas, que pode informar as autoridades. Aqueles que acreditam que suas contas foram sinalizadas por engano podem entrar com um recurso para que sejam reintegradas.
O objetivo da Apple é garantir que imagens idênticas e visualmente semelhantes resultem no mesmo hash, mesmo que tenha sido ligeiramente cortado, redimensionado ou convertido de colorido para preto e branco.
“A realidade é que a privacidade e a proteção da criança podem coexistir”, disse John Clark, presidente e CEO do Centro Nacional para Crianças Desaparecidas e Exploradas, em um comunicado. “Aplaudimos a Apple e esperamos trabalhar juntos para tornar este mundo um lugar mais seguro para as crianças.”
O anúncio faz parte de um esforço maior da empresa em torno da segurança infantil. A Apple disse na quinta-feira que uma nova ferramenta de comunicação também avisará os usuários menores de 18 anos quando eles estão prestes a enviar ou receber uma mensagem com uma imagem explícita.
A ferramenta, que deve ser ativada no Family Sharing, usa aprendizado de máquina no dispositivo para analisar anexos de imagem e determinar se uma foto é sexualmente explícita. Os pais com filhos menores de 13 anos também podem ativar um recurso de notificação caso uma criança esteja prestes a enviar ou receber uma imagem de nudez. A Apple disse que não terá acesso às mensagens.
Essa ferramenta estará disponível como uma futura atualização de software, de acordo com a empresa.