Novas tecnologias mudam a lógica dos conflitos e exigem a revisão dos tratados, mas poucos estão a fim
Um drone programado para reconhecer certos perfis e atirar. Uma máquina controlada remotamente que luta guerras a milhares de quilômetros de distância. Um ataque hacker que acaba com a luz de hospitais e derruba a energia de uma base militar, e a resposta a isso é feita com armas nucleares. Soldados equipados com óculos de realidade virtual que detectam o inimigo.
Até ontem tudo isso era só ficção, mas já chegamos nesse ponto dos avanços bélicos. Estamos falando de uma série de novos recursos tecnológicos cujos usos ainda serão experimentados e em contextos onde ainda não há regras específicas —o que dificulta, por exemplo, que países saibam o que é um ataque (e o que merece retaliação).
Os fóruns onde essas novas armas deveriam ser discutidas são estruturalmente incapazes de lidar com a “evolução exponencial” das aplicações militares. E, enquanto soluções não surgem, o cenário é de caos.
Máquinas inteligentes substituem os soldados Nem sempre a tecnologia de ponta andou lado a lado com as forças armadas. Em “Sapiens”, o historiador Yuval Noah Harari conta que até o século 19 as revoluções militares eram produto de mudanças organizacionais, não de inovação tecnológica.
Os chineses, por exemplo, descobriram a pólvora e sequer pensaram nela como um recurso militar, então demorou 600 anos para que ela fosse adotada em canhões.
Desde então essa ligação foi se estreitando rapidamente até que chegamos na encruzilhada em que estamos hoje: as máquinas inteligentes tomam cada vez mais o lugar dos humanos em embates pensados para acontecer entre soldados, tanques e caças.
Quer um exemplo? Em fevereiro, o exército americano chamou indústria e academia para “desenvolver tecnologias de aquisição autônoma de alvos, que serão integradas com tecnologia de controle de tiros, com o objetivo de providenciar veículos de combate terrestre com a capacidade de adquirir, identificar e engajar com alvos até três vezes mais rápido do que o processo manual”.
Houve um chamado também por empresas capazes de construir mísseis com inteligência artificial para selecionar seus alvos sem intervenção humana.
Tudo isso quer dizer que os EUA investem pesado em usar visão computacional, inteligência artificial e aprendizado de máquina para criar sistemas capazes de escolher um alvo e atirar. Sim, uma máquina que saiba matar sozinha.
No discurso oficial, essas máquinas nunca farão algo sem “níveis apropriados de julgamento humano no uso da força”, mas quem define os limites para isso?