Guerra na Ucrânia acelera impulso global em busca de robôs assassinos

Os militares dos EUA estão intensificando seu compromisso com o desenvolvimento e uso de armas autônomas, conforme confirmado por uma atualização de uma diretriz do Departamento de Defesa. A atualização, lançada em 25 de janeiro de 2023, é a primeira em uma década a se concentrar em armas autônomas de inteligência artificial. Ele segue um plano de implementação relacionado divulgado pela OTAN em 13 de outubro de 2022, que visa preservar a “vantagem tecnológica” da aliança no que às vezes é chamado de “robôs assassinos”.

Ambos os anúncios refletem uma lição crucial que os militares de todo o mundo aprenderam com as recentes operações de combate na Ucrânia e em Nagorno-Karabakh: a inteligência artificial armada é o futuro da guerra.

“Sabemos que os comandantes estão vendo um valor militar em munições ociosas na Ucrânia”, disse-me Richard Moyes, diretor da Article 36, uma organização humanitária focada na redução de danos causados ​​por armas, em uma entrevista. Essas armas, que são um cruzamento entre uma bomba e um drone, podem pairar por longos períodos enquanto esperam por um alvo. Por enquanto, esses mísseis semi-autônomos geralmente estão sendo operados com controle humano significativo sobre decisões importantes, disse ele.

pressão da guerra

Mas, à medida que as baixas aumentam na Ucrânia, aumenta também a pressão para obter vantagens decisivas no campo de batalha com armas totalmente autônomas – robôs que podem escolher, caçar e atacar seus alvos por conta própria, sem precisar de supervisão humana.

Este mês, um importante fabricante russo anunciou planos para desenvolver uma nova versão de combate de seu robô de reconhecimento Marker, um veículo terrestre não tripulado, para aumentar as forças existentes na Ucrânia. Drones totalmente autônomos já estão sendo usados ​​para defender instalações de energia ucranianas de outros drones. Wahid Nawabi, CEO da empreiteira de defesa dos EUA que fabrica o drone semiautônomo Switchblade, disse que a tecnologia já está ao alcance para converter essas armas para se tornarem totalmente autônomas.

Mykhailo Fedorov, ministro da transformação digital da Ucrânia, argumentou que as armas totalmente autônomas são o “próximo passo lógico e inevitável” da guerra e disse recentemente que os soldados podem vê-las no campo de batalha nos próximos seis meses.

Os defensores de sistemas de armas totalmente autônomos argumentam que a tecnologia manterá os soldados fora de perigo, mantendo-os fora do campo de batalha. Eles também permitirão que decisões militares sejam tomadas em velocidade sobre-humana, permitindo capacidades defensivas radicalmente aprimoradas.

Atualmente, armas semi-autônomas, como munições que rastreiam e se detonam em alvos, requerem um “humano no circuito”. Eles podem recomendar ações, mas exigem que seus operadores as iniciem.

Por outro lado, drones totalmente autônomos, como os chamados “caçadores de drones” agora implantados na Ucrânia, podem rastrear e desativar veículos aéreos não tripulados dia e noite, sem necessidade de intervenção do operador e mais rápido do que os sistemas de armas controlados por humanos.

Guerra na Ucrânia acelera impulso global em busca de robôs assassinos

Esta imagem composta mostra um drone de munição ‘Switchblade’ sendo lançado de um tubo e estendendo suas asas dobradas. Crédito: Relações Públicas AMRDEC do Exército dos EUA

Pedindo um tempo limite

Críticos como The Campaign to Stop Killer Robots defendem há mais de uma década a proibição da pesquisa e desenvolvimento de sistemas de armas autônomos. Eles apontam para um futuro em que sistemas de armas autônomos são projetados especificamente para atingir humanos, não apenas veículos, infraestrutura e outras armas. Eles argumentam que as decisões de guerra sobre a vida e a morte devem permanecer nas mãos dos humanos. Entregá-los a um algoritmo equivale à forma definitiva de desumanização digital.

Juntamente com a Human Rights Watch, The Campaign to Stop Killer Robots argumenta que os sistemas de armas autônomas carecem do julgamento humano necessário para distinguir entre civis e alvos militares legítimos. Eles também diminuem o limiar para a guerra ao reduzir os riscos percebidos e corroem o controle humano significativo sobre o que acontece no campo de batalha.

As organizações argumentam que os militares que investem mais pesadamente em sistemas de armas autônomos, incluindo os EUA, Rússia, China, Coréia do Sul e União Europeia, estão lançando o mundo em uma nova corrida armamentista cara e desestabilizadora. Uma consequência poderia ser esta perigosa nova tecnologia caindo nas mãos de terroristas e outros fora do controle do governo.

A diretiva atualizada do Departamento de Defesa tenta abordar algumas das principais preocupações. Ele declara que os EUA usarão sistemas de armas autônomos com “níveis apropriados de julgamento humano sobre o uso da força”. A Human Rights Watch emitiu uma declaração dizendo que a nova diretriz não deixa claro o que significa a frase “nível apropriado” e não estabelece diretrizes para quem deve determiná-la.

Mas, como argumenta Gregory Allen, especialista do think tank de defesa nacional e relações internacionais Center for Strategic and International Studies, essa linguagem estabelece um limiar mais baixo do que o “controle humano significativo” exigido pelos críticos. A redação do Departamento de Defesa, aponta ele, permite a possibilidade de que, em certos casos, como no caso de aeronaves de vigilância, o nível de controle humano considerado adequado “pode ser de pouco a nenhum”.

A diretiva atualizada também inclui linguagem prometendo uso ético de sistemas de armas autônomos, especificamente estabelecendo um sistema de supervisão para desenvolver e empregar a tecnologia e insistindo que as armas serão usadas de acordo com as leis internacionais de guerra existentes. Mas Moyes, do Artigo 36, observou que o direito internacional atualmente não fornece uma estrutura adequada para entender, muito menos regulamentar, o conceito de autonomia de armas.

O arcabouço legal atual não deixa claro, por exemplo, que os comandantes são responsáveis ​​por entender o que acionará os sistemas que utilizam, ou que devem limitar a área e o tempo em que esses sistemas irão operar. “O perigo é que não há uma linha clara entre onde estamos agora e onde aceitamos o inaceitável”, disse Moyes.

Equilíbrio impossível?

A atualização do Pentágono demonstra um compromisso simultâneo com a implantação de sistemas de armas autônomos e com o cumprimento do direito humanitário internacional. Ainda não se sabe como os Estados Unidos equilibrarão esses compromissos, e se tal equilíbrio será possível.

O Comitê Internacional da Cruz Vermelha, guardião do direito humanitário internacional, insiste que as obrigações legais dos comandantes e operadores “não podem ser transferidas para uma máquina, algoritmo ou sistema de armas”. Neste momento, os seres humanos são responsáveis ​​por proteger os civis e limitar os danos de combate, garantindo que o uso da força seja proporcional aos objetivos militares.

Se e quando armas artificialmente inteligentes forem implantadas no campo de batalha, quem deve ser responsabilizado quando ocorrerem mortes desnecessárias de civis? Não há uma resposta clara para essa pergunta tão importante.

Fornecido por The Conversation

Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.A conversa

Citação: Comentário: Guerra na Ucrânia acelera impulso global em direção a robôs assassinos (2023, 21 de fevereiro) recuperado em 21 de fevereiro de 2023 em https://techxplore.com/news/2023-02-commentary-war-ukraine-global-killer.html

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins informativos.



Deixe uma resposta