Google experimenta ferramenta que reúne diferentes recursos para detectar se fotografias foram adulteradas.
Entre as muitas informações falsas que circularam durante as eleições de 2018, a maior parte trazia imagens como “prova”. Por exemplo, as fotografias de boletins de urnas que mostravam o candidato Fernando Haddad com quase 10 mil votos enquanto Jair Bolsonaro tinha zero votos, indicando uma suposta fraude eleitoral.
Uma nova ferramenta anunciada nos Estados Unidos junta diversas tecnologias desenvolvidas em diferentes centros de pesquisa para tornar mais eficiente a detecção de imagens manipuladas. Segundo a Jigsaw, uma incubadora de tecnologia do Google, trata-se de uma solução “avançada” para um mundo em que a criação de conteúdo enganoso é cada vez mais sofisticada.
A iniciativa se chama Assembler. Segundo o texto de apresentação, existem muitas ferramentas que conseguem examinar um aspecto específico de uma imagem, mas que têm alcance limitado por causa disso.
Por exemplo: o software que percebe nuances de brilho que podem indicar uma sobreposição de imagens não consegue captar inconsistências em grupos de pixels (um pixel é a menor unidade de uma imagem; uma fotografia é formada por milhares ou milhões de pixels).
O projeto da Jigsaw reúne as capacidades de sete desenvolvedores diferentes, compondo um “kit de análise” bem mais completo. O Assembler ainda está em fase de testes, realizados com organizações jornalísticas em diferentes países. A empresa não planeja disponibilizar a ferramenta para o público.
As tecnologias usadas
Uma das ferramentas incluídas no projeto é um programa que detecta o uso na imagem de uma tecnologia de deepfake chamada StyleGAN. Essa tecnologia usa a inteligência artificial para gerar novos rostos humanos a partir de características de rostos de pessoas existentes. Os resultados são realistas ao extremo.
Outro recurso incorporado no Assembler é um algoritmo que analisa os “patches” (grupos de pixels) de uma imagem para determinar se algum deles foi copiado e colado em outra parte da foto, com o objetivo de cobrir algum elemento que se desejava remover.
Desafios do projeto
O projeto consegue dar conta de algumas das técnicas existentes para modificação de fotos, mas não de todas. Ele também, inicialmente, existe como plataforma separada de redes sociais como o Facebook, local de intensa circulação de conteúdo fake.
Outra limitação é que esse tipo de análise ainda não pode ser realizada em conteúdo de vídeo. Atualmente, a manipulação de imagens em movimento é a “vanguarda” do conteúdo fraudulento das deepfakes. Em 2019, um vídeo que coloca frases na boca do fundador do Facebook, Mark Zuckerberg, evidenciou o nível de sofisticação disponível atualmente.
Outra categoria de deepfake, em que um rosto é enxertado em outro corpo, são motivo de preocupação do Departamento de Defesa dos Estados Unidos desde 2018. O órgão criou um software de análise de vídeos que consegue detectar pistas sutis em imagens manipuladas.