Existem armas autônomas letais; Elas devem ser banidas
Na foto de abertura, drones de ataque autônomo de asa rotativa UAV Kargu, retratados no campus do OSTIM Technopark em Ancara, Turquia, em junho de 2020
Pode não ser tarde demais para colocar o gênio dos malévolos “Slaughterbots” de volta na garrafa, se o mundo agir agora
Por Stuart Russell, Anthony Aguirre, Emilia Javorsky e Max Tegmark
Um futuro assustador que alguns disseram que não chegaria por muitos anos, na verdade, já está aqui. De acordo com um relatório recente da ONU, um ataque aéreo de drone na Líbia na primavera de 2020 – feito contra as forças do Exército Nacional da Líbia por drones STM Kargu-2 de fabricação turca em nome do Governo de Acordo Nacional da Líbia – foi conduzido por sistemas de armas sem humanos “no circuito”.
Em outras palavras, a linha vermelha da seleção autônoma de alvos humanos agora foi cruzada.
Até onde sabemos, este relatório oficial das Nações Unidas marca o primeiro caso de uso documentado de um sistema de arma autônomo letal semelhante ao que foi chamado em outro lugar de “Slaughterbot”. Acreditamos que este é um momento marcante. Organizações da sociedade civil, como a nossa, defenderam anteriormente um tratado preventivo que proíbe o desenvolvimento e uso de armas autônomas letais, assim como as armas cegantes foram proibidas preventivamente em 1998. A janela para a preempção já passou, mas a necessidade de um tratado é mais urgente do que nunca.
O STM Kargu-2 é um quadricóptero voador que pesa apenas 7 kg, está sendo produzido em massa, é capaz de direcionamento totalmente autônomo, pode formar enxames, permanece totalmente operacional quando o GPS e links de rádio estão bloqueados e está equipado com software de reconhecimento facial para atacar humanos. Em outras palavras, é um Slaughterbot.
O relatório da ONU observa: “Comboios logísticos e em retirada [Forças Afiliadas de Haftar] foram posteriormente caçados e remotamente engajados por veículos aéreos de combate não tripulados ou sistemas de armas autônomas letais, como o STM Kargu-2 (ver Anexo 30) e outras munições vagantes. Os sistemas de armas autônomas letais foram programados para atacar alvos sem exigir conectividade de dados entre o operador e a munição.” O anexo 30 do relatório mostra evidências fotográficas do sistema STM Kargu-2 abatido.
Em um esforço anterior para identificar áreas de consenso para proibição, reunimos especialistas com uma variedade de pontos de vista sobre armas autônomas letais para pensar em um caminho a seguir. Publicamos as conclusões acordadas em “Um Caminho para o Regulamento de Armas Autônomas Razoáveis”, que sugeria uma “moratória limitada no tempo para o desenvolvimento, implantação, transferência e uso de sistemas de armas autônomas letais antipessoal” como primeiro e mínimo absoluto, passo para regulamentação.
Uma recente declaração de posição do Comitê Internacional da Cruz Vermelha sobre sistemas de armas autônomos concorda. Afirma que “o uso de sistemas de armas autônomos para atingir seres humanos deve ser descartado. Isso seria melhor alcançado através de uma proibição de sistemas de armas autônomos que são projetados ou usados para aplicar força contra pessoas.” Esse sentimento é compartilhado por muitas organizações da sociedade civil, como a Article 36, organização de defesa sediada no Reino Unido, que recomenda que “Uma estrutura eficaz para regulamentação legal internacional proibiria certas configurações, como sistemas que visam as pessoas”.
A questão dos “Slaughterbots”
Em 2017, o Future of Life Institute, que representamos, lançou um vídeo de quase oito minutos intitulado “Slaughterbots” (assista no final da matéria) – que foi visto por cerca de 75 milhões de pessoas online – dramatizando os perigos das armas autônomas letais. Na época do lançamento, o vídeo recebeu elogios e críticas. O artigo do IEEE Spectrum de Paul Scharre, de dezembro de 2017, “Por que você não deveria temer os Slaughterbots”, argumentou que os “Slaughterbots” eram “muito ficção científica” e uma “peça de propaganda”. Em uma reunião de novembro de 2017 sobre armas autônomas letais em Genebra, Suíça, o embaixador russo na ONU também teria rejeitado, dizendo que tais preocupações estavam 25 ou 30 anos no futuro. Abordamos essas críticas em nosso artigo – também para o Spectrum – intitulado “Por que você deveria temer os Slaughterbots – uma resposta”. Agora, menos de quatro anos depois, a realidade nos mostra o caso: a era dos Slaughterbots parece ter começado.
Produzimos o filme “Slaughterbots” para educar o público e os legisladores sobre os perigos iminentes em potencial de sistemas de armas autônomas letais, pequenos, baratos e onipresentes. Além da questão moral de entregar decisões de vida e morte a algoritmos, o vídeo apontou que as armas autônomas irão, inevitavelmente, se transformar em armas de destruição em massa, precisamente porque não requerem supervisão humana e, portanto, podem ser implantadas em grande número. (Um ponto relacionado, a respeito da agilidade tática de tais plataformas de armas, foi feito no Spectrum no em um artigo de Natasha Bajema.) Além disso, como as armas pequenas, os drones autônomos como armas proliferarão facilmente no mercado internacional de armas. Como o epílogo do vídeo “Slaughterbots” explicou, todas as tecnologias de componentes já estavam disponíveis e esperávamos que os militares começassem a usar essas armas muito em breve. Essa previsão estava essencialmente correta.
Nos últimos anos, assistimos a uma série de reportagens na mídia sobre testes militares de enxames (swarms) cada vez maiores de drones e uso de armas no campo de batalha com funções cada vez mais autônomas. Em 2019, o então secretário de Defesa Mark Esper, em uma reunião da Comissão de Segurança Nacional de Inteligência Artificial, observou: “Enquanto falamos, o governo chinês já está exportando alguns de seus drones aéreos militares mais avançados para o Oriente Médio”.
“Além disso”, acrescentou Esper, “os fabricantes de armas chineses estão vendendo drones anunciados como capazes de total autonomia, incluindo a capacidade de conduzir ataques letais contra alvos”.
Embora a China tenha entrado no negócio de exportação de drones autônomos, outros produtores e exportadores de sistemas de armas altamente autônomos incluem Turquia e Israel. Pequenos sistemas de drones evoluíram de serem limitados a serem semiautônomos e de emprego anti-material, para possuírem modos operacionais totalmente autônomos equipados com sensores que podem identificar, rastrear e alvejar humanos.
A vantagem decisiva do Azerbaijão sobre as forças armênias no conflito de Nagorno-Karabakh em 2020 foi atribuída ao seu arsenal de “drones suicidas” kamikaze baratos. Durante o conflito, foi relatado o uso do Orbiter 1K israelense e do Harop, que são munições que se autodestroem com o impacto. Essas armas são desdobradas por um humano em uma região geográfica específica, mas, em última análise, elas selecionam seus próprios alvos sem intervenção humana.
O sucesso do Azerbaijão com essas armas forneceu um precedente convincente de como sistemas baratos e altamente autônomos podem permitir que militares sem uma força aérea avançada possam competir no campo de batalha. O resultado foi um aumento na demanda mundial por esses sistemas, já que o preço da superioridade aérea caiu drasticamente. Embora os sistemas usados no Azerbaijão estejam indiscutivelmente a uma atualização de software da autonomia contra humanos, seu uso pretendido descrito foi principalmente alvos materiais, como sistemas de radar e veículos.
Se, ao que parece, a era dos Slaughterbots chegou, o que o mundo pode fazer a respeito? O primeiro passo deve ser uma moratória imediata sobre o desenvolvimento, implantação e uso de armas autônomas letais que visam as pessoas, combinada com um compromisso de negociar um tratado permanente. Também precisamos de acordos que facilitem a verificação e aplicação, incluindo restrições de projeto em armas pilotadas remotamente que evitem a conversão de software para operação autônoma, bem como regras da indústria para prevenir armamentos ilícitos em grande escala de drones civis.
Não queremos nada mais do que nosso vídeo “Slaughterbots” se tornar apenas um lembrete histórico de um caminho horrendo não percorrido – um erro que a raça humana poderia ter cometido, mas não o fez.
FONTE: IEEE Spectrum