Apple adia polêmica tecnologia de análise de imagens no iPhone

A Apple anunciou que não lançará agora a sua controversa tecnologia de detecção de material de abuso sexual infantil (CSAM), anunciada no mês passado.


 

O adiamento foi feito, segundo a empresa, “com base no feedback de clientes, grupos de defesa, pesquisadores e outros”. Como divulgado anteriormente, esse retorno dos usuários foi amplamente negativo. Só a ONG de defesa das liberdades civis Electronic Frontier Foudation colheu mais de 25 mil assinaturas de consumidores contra a medida. A respeitada ACLU (American Civil Liberties Union) também pediu à Apple que desistisse do procedimento.

Como funciona a tecnologia de detecção de CSAM da Apple?

Chamado de NeuralHash, o novo recurso da Apple consiste em um algoritmo supostamente capaz de detectar conteúdos de pornografia infantil em dispositivos de usuários, sem obter a imagem ou mesmo conhecer o seu conteúdo. Como fotos armazenadas no iCloud são criptografadas de ponta a ponta — para que nem mesmo a própria dona do sistema consiga acessar —, o NeuralHash procura CSAM diretamente nos computadores e celulares.

Se as intenções soam como as melhores possíveis, especialistas em cibersegurança e defensores da privacidade na internet vêm expressando sua preocupação com um possível desvirtuamento do sistema por atores poderosos, como governos totalitários, para explorar e oprimir seus cidadãos.

Outra preocupação são os possíveis falsos positivos. Um usuário do agregador social Reddit usou a engenharia reversa para criar “colisões de hash” no NeuralHash, ou seja, utilizou o próprio algoritmo matemático que transforma dados em caracteres (hash) para enganar o sistema. Comparando uma imagem diferente do banco de dados CSAM do dispositivo, o especialista “o iludiu” como se as imagens fossem iguais.

João Pedro:
Related Post